Refine
Has Fulltext
- yes (78) (remove)
Year of publication
Document Type
- Doctoral Thesis (78) (remove)
Language
- English (47)
- German (30)
- Multiple languages (1)
Is part of the Bibliography
- no (78) (remove)
Keywords
- Adipositas (3)
- Klimawandel (3)
- climate change (3)
- Kinder (2)
- Kontext (2)
- Mars (2)
- Nanoparticles (2)
- Nanopartikel (2)
- Spektroskopie (2)
- Transkriptionsfaktoren (2)
- children (2)
- education (2)
- inflammatory bowel disease (2)
- metabolism (2)
- obesity (2)
- sensor (2)
- spectroscopy (2)
- transcription factors (2)
- ATP (1)
- Absorptionseigenschaften (1)
- Adana Basin (1)
- Adana Becken (1)
- Africa (1)
- Afrika (1)
- Agency theory (1)
- Agency-Theorie (1)
- Aggression (1)
- Aktive Arbeitsmarktpolitik (1)
- Aktuatoren (1)
- Allgemeine Relativitätstheorie (1)
- Alliance Capability (1)
- Allianzfähigkeit (1)
- Allianzkompetenz (1)
- Amyloid peptide (1)
- Anaphora (1)
- Anfragepaare (1)
- Anomalien (1)
- Anorexia nervosa (1)
- Anoxie (1)
- Anpassung (1)
- Apollo (1)
- Apyrase (1)
- Arbeitssuchverhalten (1)
- ArcObjects (1)
- Aspect-Oriented Programming (1)
- Aspektorientierte Programmierung (1)
- Ausführungsgeschichte (1)
- Automatisierung (1)
- Azobenzolhaltige Polymerfilme (1)
- Bayesian networks (1)
- Bayessche Netze (1)
- Bewältigungsstrategien (1)
- Bildung (1)
- Binding Theory (1)
- Biosignaturen (1)
- Blickbewegungen (1)
- Blickbewegungen beim Lesen (1)
- Breitband (1)
- Brownification (1)
- Bürgerdienste (1)
- Bürgerschaftliches Engagement (1)
- CAP (1)
- CSCW (1)
- Caco-2 (1)
- Capabilities based View (1)
- Capsule (1)
- Carbide (1)
- Carbides (1)
- Carbon Cycling (1)
- Carbon cycling (1)
- Carbonate (1)
- Carbonates (1)
- Cavity Ring-Down (1)
- Cellulose (1)
- Centering Theory (1)
- Charnockit (1)
- Chile (1)
- Chlamydomonas (1)
- Chloroplast (1)
- Chromatin-Immunopräzipitation (1)
- Claudin-4 (1)
- Cloud Computing (1)
- Cloud computing (1)
- Cobalt (1)
- Colitis ulcerosa (1)
- Common Sense Model of Illness Representation (1)
- Composites (1)
- Computationale Modellierung (1)
- Coping (1)
- Core-Collapse Supernovae (1)
- Crohn's disease (1)
- DDR (1)
- Data Privacy (1)
- Datenbank (1)
- Datenschutz (1)
- Deichbruch (1)
- Depression (1)
- Desensibilisierung (1)
- Design Thinking (1)
- Diagenese (1)
- Diagenesis (1)
- Digitale Whiteboards (1)
- Dionysos (1)
- Disambiguierung (1)
- Diskursgegebenheit (1)
- Dysarthrie (1)
- E. coli (1)
- Effizienzanalyse (1)
- Ehrenamt (1)
- Eliassen Palm Flux (1)
- Eliassen-Palm-Fluss (1)
- Eltern (1)
- Energiehaushalt (1)
- Ernährung (1)
- Erosion (1)
- Erziehung (1)
- Erziehungsheim (1)
- Fasern (1)
- Fehlende Daten (1)
- Fehlerbeseitigung (1)
- Feldflussfraktionierung (1)
- Field Flow Fractionation (1)
- Flavonoid (1)
- Flavonoid-Metabolismus (1)
- Flood (1)
- Fluoreszenz (1)
- Fläming (1)
- Formyl-Peptid Rezeptor 2 (1)
- Freiwilligenmanagement (1)
- Freizeit (1)
- Führungspraxis (1)
- GDR (1)
- GIS (1)
- Galaxien (1)
- Gas Sorption (1)
- Gassensorik (1)
- Gedankenschweifen (1)
- Gedankenverlorenes Lesen (1)
- Gefährdungskarten (1)
- General Relativity (1)
- Geoinformation (1)
- Geomorphologie (1)
- German Greens (1)
- German history (1)
- German history of sovereignty (12th and 13th century) (1)
- German reunification (1)
- Geschäftsprozessmanagement (1)
- Gießfolien (1)
- Gitterdynamik (1)
- Globaler Wandel (1)
- Gold Cluster (1)
- Gravitational Waves (1)
- Gravitationswellen (1)
- Grundwasser (1)
- Grüne (1)
- HCI (1)
- Habitus (1)
- Halo (1)
- Hebung des Plateaus (1)
- Hochgeschwindigkeitswolken (1)
- Hochwasser (1)
- Holzprodukte (1)
- IRRAS (1)
- In-situ Rasterkraftmikroskopie (1)
- Information (1)
- Informationstechnik (1)
- Informationsvorhaltung (1)
- Internet applications (1)
- Internetanwendungen (1)
- Inverse Probability Weighting (1)
- Ionic Liquid (1)
- Ivy (1)
- Java Security Framework (1)
- Jugend (1)
- Jugendliche (1)
- Kartoffel (1)
- Kern-Kollaps-Supernovae (1)
- Klassifikator (1)
- Klassifizierung (1)
- Kleintriebe (1)
- Koalition (1)
- Kohlenstoffspeicherung (1)
- Kommunale Verwaltung (1)
- Kommunikation (1)
- Kompetenzmanagement (1)
- Komposite (1)
- Konfliktgeschichte (1)
- Konjugierten polyelektrolyt (1)
- Konsumorietirte Steuerreform (1)
- Koreferenz (1)
- Krankheitsbewältigung (1)
- Land (1)
- Landepositionen (1)
- Landnutzung (1)
- Landwirtschaft (1)
- Langmuir monolayers (1)
- Latin American literature (1)
- Lebensqualität (1)
- Leistungsfähigkeit (1)
- Levels-of-inattention Hypothese (1)
- Lipide (1)
- Mars Express (1)
- Mathematics Tasks (1)
- Mathematik (1)
- Mathematikaufgaben (1)
- Mediengewalt (1)
- Meereis (1)
- Mehrschichtsysteme (1)
- Mensch-Computer-Interaktion (1)
- Merkmale (1)
- Metal-organic framework (1)
- Metall/Graphen/Polymer Grenzfläch (1)
- Methanogene Archaeen (1)
- Microalgae (1)
- Microemulsion (1)
- Mikroalgen (1)
- Mikroemulsion (1)
- Mikrokapsel (1)
- Mikropolitik (1)
- Mineralverwitterungsreaktionen (1)
- Miocene (1)
- Miozän (1)
- Modell der Bayesianischen Sakkadenplanung (1)
- Modellierung (1)
- Modelllernen (1)
- Mongolei (1)
- Mongolia (1)
- Monoschicht (1)
- Morbus Crohn (1)
- Multilayers (1)
- Myofibroblasten (1)
- Mythos (1)
- Nachmittagsbetreuung (1)
- Nahinfrarot (NIR) (1)
- Nanostruktur (1)
- Narziss (1)
- New Public Management (1)
- Nukleosidase (1)
- Nährstoffe (1)
- Oberflächengitter (1)
- Obesity (1)
- Objektive Hermeneutik (1)
- On.Line Monitoring (1)
- Opto-mechanische Spannungen (1)
- Organgröße (1)
- Organisationstheorie (1)
- Owner-Retained Access Control (ORAC) (1)
- PISA (1)
- PSP (1)
- PSP-P (1)
- PSP-RS (1)
- Parasiten (1)
- Parasites (1)
- Partizipation (1)
- Pathogenantwort (1)
- Patientenschulung (1)
- Peptide (1)
- Performance (1)
- Perowskit (1)
- Pflanzenwachstum (1)
- Phospholipid (1)
- Photon density waves (1)
- Photonendichtewellen (1)
- Photosynthese (1)
- Physik (1)
- Pinus sylvestris (1)
- Plastome-evolution (1)
- Plastomevolution (1)
- Polder (1)
- Policy Languages (1)
- Policy Sprachen (1)
- Polyadenylierung (1)
- Polyelectrolyte (1)
- Polyelektrolyt (1)
- Prevalence (1)
- Primärproduktion (1)
- Probabilistische Modelle (1)
- Probiotika (1)
- Process Mining (1)
- Progredienzangst (1)
- Project management (1)
- Projektmanagement (1)
- Pronomen (1)
- Pronouns (1)
- Propensity Score Matching (1)
- Proteine (1)
- Proteom (1)
- Protest Parties (1)
- Protestparteien (1)
- Prävalenz (1)
- Psycholinguistik (1)
- QTL (1)
- Qualitätsmanagement (1)
- Quantum Dots (1)
- Quercetin (1)
- Quercus (1)
- RDF (1)
- Raman Spektroskopie (1)
- Raman spectroscopy (1)
- Resource based View (1)
- Responsive Polymere (1)
- Richardson Syndrom (1)
- Richardson Syndrome (1)
- Risiko- und Vulnerabilitätsfaktoren (1)
- Risk and Vulnerability Factors (1)
- SJL (1)
- SME (1)
- SPARQL (1)
- STATT Partei (1)
- STATT Party (1)
- SWIM (1)
- Saprolit (1)
- Sardinia (1)
- Sardinien (1)
- Scalability (1)
- Schill (1)
- Schule (1)
- Sedimentenabfolge (1)
- Sedimentologie (1)
- Sedimentology (1)
- Selbstmanagement (1)
- Semantische Analyse (1)
- Semiklassik (1)
- Sensor (1)
- Sexual Aggression (1)
- Sexuelle Aggression (1)
- Shrub encroachment (1)
- Siberian permafrost (1)
- Skalierbarkeit (1)
- Softwareentwicklung (1)
- Softwareentwicklungsprozesse (1)
- Softwaretest (1)
- Sorption (1)
- Sri Lanka (1)
- Steuer (1)
- Steuerreform (1)
- Steuersystem (1)
- Stoffwechsel (1)
- Strategic Alliances (1)
- Strategic Management (1)
- Strategische Allianzen (1)
- Strategisches Management (1)
- Stress (1)
- Streuamplitude (1)
- Streutheorie (1)
- Stärke (1)
- Subsidenzgeschichte (1)
- Sumatra Störung (1)
- Sumatra fault (1)
- Süd-Türkei (1)
- Tarutung (1)
- Tbc1d1 (1)
- Test-getriebene Fehlernavigation (1)
- Tests (1)
- Tight Junction (1)
- Transaktivierungs-Experimente (1)
- Transforming Growth Factor beta (1)
- Transitionmetals (1)
- Transkriptomanalyse (1)
- Turkey (1)
- Türkei (1)
- Unsicherheitsanalyse (1)
- VMP1 (1)
- Vernetzte Daten (1)
- Verteiltes Arbeiten (1)
- Verwitterungsfeedback (1)
- Videoanalyse (1)
- Videometadaten (1)
- Videospiele (1)
- Vorhersage (1)
- Waldwachstumsmodell 4C (1)
- Wasserqualität (1)
- Wellenausbreitung (1)
- Wende (1)
- Wissen (1)
- Wortgrenzen (1)
- Zelltyp-spezifisch (1)
- Zellulose (1)
- Zellulärmaterialien (1)
- Zinc (1)
- Zivilgesellschaft (1)
- active labor market policies (1)
- actuating materials (1)
- adapation (1)
- adolescents (1)
- afternoon care (1)
- aggression (1)
- agriculture (1)
- analysis of efficiency (1)
- anaphora (1)
- anomalies (1)
- anorexia nervosa (1)
- anoxia (1)
- anxiety (1)
- apyrase (1)
- arbuscular mycorrhizal symbiosis (1)
- arbuskuläre Mykorrhiza-Symbiose (1)
- architectured materials (1)
- assistive Technologien (1)
- assistive technologies (1)
- attenuation tomography (1)
- automation (1)
- autophagy (1)
- azobenzene polymer films (1)
- back-in-time (1)
- biodiversity (1)
- biosignatures (1)
- broadband (1)
- brownification (1)
- business process management (1)
- carbon flow (1)
- carbon sequestration (1)
- casted-films (1)
- cavity ring-down (1)
- cell type-specific (1)
- cellular materials (1)
- changeability (1)
- charnockite (1)
- chemical weathering (1)
- chemische Verwitterung (1)
- chlamydomonas (1)
- chromatin immunoprecipitation (1)
- chronisch entzündliche Darmerkrankungen (1)
- chronisch-entzündliche Darmerkrankungen (1)
- citizen services (1)
- civic culture (1)
- classification (1)
- classifier (1)
- claudin-4 (1)
- coalition (1)
- cobalt (1)
- cognitive functions (1)
- common sense model of illness representation (1)
- communication (1)
- computational modeling (1)
- concepts of illness (1)
- conflict (1)
- conjugated polyelectrolyte (1)
- context (1)
- context awareness (1)
- coping (1)
- coreference (1)
- countryside (1)
- critical zone (1)
- crop modeling (1)
- cscw (1)
- cytokinesis (1)
- database (1)
- debugging (1)
- depression (1)
- desensitization (1)
- design thinking (1)
- deutsche Geschichte (1)
- deutsche Herrschaftsbildung (12./13. Jh.) (1)
- diet (1)
- diffuse Belastung (1)
- diffuse pollution (1)
- digital whiteboard (1)
- dike breach (1)
- directed projects (1)
- discourse-givenness (1)
- disease management (1)
- dysarthria (1)
- dysarthric features (1)
- empirical labor market studies (1)
- empirical studies (1)
- empirische Arbeitsmarktforschung (1)
- empirische Studien (1)
- energy budget (1)
- erosion (1)
- extracellular matrix (1)
- extrazelluläre Matrix (1)
- eye movements (1)
- eye movements during reading (1)
- fear of progression (1)
- fibres (1)
- films (1)
- fiscal policy (1)
- flavonoid (1)
- flavonoid biosynthesis (1)
- fluorescence (1)
- forest growth model 4C (1)
- forestry (1)
- formyl peptide receptor 2 (1)
- galaxies (1)
- gas sensing (1)
- gas sorption (1)
- gelenkte Projekte (1)
- geoinformation (1)
- geological processes (1)
- geologische Prozesse (1)
- geomorphology (1)
- global change (1)
- ground water (1)
- halo (1)
- hazard maps (1)
- high-velocity-clouds (1)
- hydrogel (1)
- illness representations (1)
- in-situ atomic force microscopy (1)
- indigenous chronic (1)
- information (1)
- information technology (1)
- integrated personal income tax (1)
- inverse probability weighting (1)
- ionic liquid (1)
- job search behavior (1)
- kinetic modeling (1)
- kinetische Modellierung (1)
- knowledge (1)
- kognitive Funktionen (1)
- kritische Zone (1)
- land use (1)
- landing positions (1)
- lattice dynamics (1)
- leadership (1)
- leisure time (1)
- levels-of-inattention hypothesis (1)
- linked data (1)
- local government (1)
- loss-of-function mutation (1)
- loss-of-function-Mutation (1)
- mathematics (1)
- media violence (1)
- metabolic costs (1)
- metabolic networks (1)
- metabolische Kosten (1)
- metabolische Netzwerke (1)
- metal-organic framework (1)
- metal/polymer interfaces (1)
- methanogenic archaea (1)
- miRNA (1)
- miRNAs (1)
- micro politics (1)
- mind wandering (1)
- mindless reading (1)
- mineral weathering reactions (1)
- missing data (1)
- model of Bayesian saccade planning (1)
- model-driven engineering (1)
- modelgetriebene Entwicklung (1)
- modeling (1)
- modelling (1)
- myofibroblast (1)
- myth (1)
- nanostructure (1)
- near-infrared (NIR) (1)
- new public management (1)
- nonprofit (1)
- nucleosidase (1)
- nutrients (1)
- online assistance (1)
- opal (1)
- optische Anregung (1)
- opto-mechanical stresses (1)
- organ size (1)
- organizational theory (1)
- overgrazing (1)
- parents (1)
- participation (1)
- pathogen response (1)
- patient education (1)
- perovskite (1)
- photoexcitation (1)
- photosynthesis (1)
- physics (1)
- physiologische Verfahren (1)
- plateau uplift (1)
- polder (1)
- political utopia (1)
- polyadenylation (1)
- potato (1)
- prediction (1)
- prefetching (1)
- primary production (1)
- probabilistic models (1)
- probiotics (1)
- process mining (1)
- propensity score matching (1)
- protein (1)
- proteins (1)
- proteomics (1)
- psycholinguistics (1)
- psychophysiological measures (1)
- qualitative pathway interpretation (1)
- quality of life (1)
- qualitymanagement (1)
- quercetin (1)
- query matching (1)
- reconfigurable matter (1)
- remote collaboration (1)
- reptiles (1)
- responsive (1)
- responsive polymer (1)
- saprolite (1)
- scattering amplitude (1)
- scattering theory (1)
- school (1)
- sea ice (1)
- sedimentary record (1)
- seismische Geschwindigkeiten (1)
- self-management (1)
- semantic analysis (1)
- semiclassics (1)
- sibirischen Permafrost (1)
- sign language (1)
- software development (1)
- software development processes (1)
- southern Turkey (1)
- stable isotope tracing (1)
- starch (1)
- status quo and reform model (1)
- stochastic Petri nets (1)
- stochastische Petri Netze (1)
- stoichiometric modeling (1)
- stress (1)
- stöchiometrische Modellierung (1)
- subjektive Krankheitskonzepte (1)
- subsidence history (1)
- sucrose (1)
- surface relief grating (1)
- swelling (1)
- tax system (1)
- test-driven fault navigation (1)
- testing (1)
- tf-idf (1)
- the turnaround (1)
- thermoplastic (1)
- thermoplastisch (1)
- tight junction (1)
- transactivation assay (1)
- transcriptome analysis (1)
- transformational (1)
- transforming growth factor beta (1)
- ubiquity of new knowledge (1)
- ulcerative colitis (1)
- ultrafast X-ray diffraction (1)
- ultraschnelle Röntgendiffraktion (1)
- uncertainty analysis (1)
- unipolar affective disorders (1)
- unipolare affektive Störungen (1)
- user interfaces (1)
- velocity structure (1)
- video analysis (1)
- video games (1)
- video metadata (1)
- violence of latin letter (1)
- volunteer management (1)
- volunteering (1)
- water balance (1)
- water quality (1)
- wave propagation (1)
- weathering feedback (1)
- wood products (1)
- word boundaries (1)
- word sense disambiguation (1)
- word skipping (1)
- worries and concerns (1)
- youth (1)
- zinc (1)
- Änderbarkeit (1)
- Ängste und Sorgen (1)
- Übergangsmetalle (1)
- Überspringen von Wörtern (1)
- Čechov (1)
Institute
- Institut für Biochemie und Biologie (12)
- Institut für Chemie (8)
- Institut für Physik und Astronomie (8)
- Department Psychologie (7)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (7)
- Institut für Umweltwissenschaften und Geographie (6)
- Institut für Geowissenschaften (5)
- Wirtschaftswissenschaften (5)
- Extern (4)
- Sozialwissenschaften (4)
This thesis proposes a privacy protection framework for the controlled distribution and use of personal private data. The framework is based on the idea that privacy policies can be set directly by the data owner and can be automatically enforced against the data user. Data privacy continues to be a very important topic, as our dependency on electronic communication maintains its current growth, and private data is shared between multiple devices, users and locations. The growing amount and the ubiquitous availability of personal private data increases the likelihood of data misuse. Early privacy protection techniques, such as anonymous email and payment systems have focused on data avoidance and anonymous use of services. They did not take into account that data sharing cannot be avoided when people participate in electronic communication scenarios that involve social interactions. This leads to a situation where data is shared widely and uncontrollably and in most cases the data owner has no control over further distribution and use of personal private data. Previous efforts to integrate privacy awareness into data processing workflows have focused on the extension of existing access control frameworks with privacy aware functions or have analysed specific individual problems such as the expressiveness of policy languages. So far, very few implementations of integrated privacy protection mechanisms exist and can be studied to prove their effectiveness for privacy protection. Second level issues that stem from practical application of the implemented mechanisms, such as usability, life-time data management and changes in trustworthiness have received very little attention so far, mainly because they require actual implementations to be studied. Most existing privacy protection schemes silently assume that it is the privilege of the data user to define the contract under which personal private data is released. Such an approach simplifies policy management and policy enforcement for the data user, but leaves the data owner with a binary decision to submit or withhold his or her personal data based on the provided policy. We wanted to empower the data owner to express his or her privacy preferences through privacy policies that follow the so-called Owner-Retained Access Control (ORAC) model. ORAC has been proposed by McCollum, et al. as an alternate access control mechanism that leaves the authority over access decisions by the originator of the data. The data owner is given control over the release policy for his or her personal data, and he or she can set permissions or restrictions according to individually perceived trust values. Such a policy needs to be expressed in a coherent way and must allow the deterministic policy evaluation by different entities. The privacy policy also needs to be communicated from the data owner to the data user, so that it can be enforced. Data and policy are stored together as a Protected Data Object that follows the Sticky Policy paradigm as defined by Mont, et al. and others. We developed a unique policy combination approach that takes usability aspects for the creation and maintenance of policies into consideration. Our privacy policy consists of three parts: A Default Policy provides basic privacy protection if no specific rules have been entered by the data owner. An Owner Policy part allows the customisation of the default policy by the data owner. And a so-called Safety Policy guarantees that the data owner cannot specify disadvantageous policies, which, for example, exclude him or her from further access to the private data. The combined evaluation of these three policy-parts yields the necessary access decision. The automatic enforcement of privacy policies in our protection framework is supported by a reference monitor implementation. We started our work with the development of a client-side protection mechanism that allows the enforcement of data-use restrictions after private data has been released to the data user. The client-side enforcement component for data-use policies is based on a modified Java Security Framework. Privacy policies are translated into corresponding Java permissions that can be automatically enforced by the Java Security Manager. When we later extended our work to implement server-side protection mechanisms, we found several drawbacks for the privacy enforcement through the Java Security Framework. We solved this problem by extending our reference monitor design to use Aspect-Oriented Programming (AOP) and the Java Reflection API to intercept data accesses in existing applications and provide a way to enforce data owner-defined privacy policies for business applications.
It sometimes happens that we finish reading a passage of text just to realize that we have no idea what we just read. During these episodes of mindless reading our mind is elsewhere yet the eyes still move across the text. The phenomenon of mindless reading is common and seems to be widely recognized in lay psychology. However, the scientific investigation of mindless reading has long been underdeveloped. Recent progress in research on mindless reading has been based on self-report measures and on treating it as an all-or-none phenomenon (dichotomy-hypothesis). Here, we introduce the levels-of-inattention hypothesis proposing that mindless reading is graded and occurs at different levels of cognitive processing. Moreover, we introduce two new behavioral paradigms to study mindless reading at different levels in the eye-tracking laboratory. First (Chapter 2), we introduce shuffled text reading as a paradigm to approximate states of weak mindless reading experimentally and compare it to reading of normal text. Results from statistical analyses of eye movements that subjects perform in this task qualitatively support the ‘mindless’ hypothesis that cognitive influences on eye movements are reduced and the ‘foveal load’ hypothesis that the response of the zoom lens of attention to local text difficulty is enhanced when reading shuffled text. We introduce and validate an advanced version of the SWIFT model (SWIFT 3) incorporating the zoom lens of attention (Chapter 3) and use it to explain eye movements during shuffled text reading. Simulations of the SWIFT 3 model provide fully quantitative support for the ‘mindless’ and the ‘foveal load’ hypothesis. They moreover demonstrate that the zoom lens is an important concept to explain eye movements across reading and mindless reading tasks. Second (Chapter 4), we introduce the sustained attention to stimulus task (SAST) to catch episodes when external attention spontaneously lapses (i.e., attentional decoupling or mind wandering) via the overlooking of errors in the text and via signal detection analyses of error detection. Analyses of eye movements in the SAST revealed reduced influences from cognitive text processing during mindless reading. Based on these findings, we demonstrate that it is possible to predict states of mindless reading from eye movement recordings online. That cognition is not always needed to move the eyes supports autonomous mechanisms for saccade initiation. Results from analyses of error detection and eye movements provide support to our levels-of-inattention hypothesis that errors at different levels of the text assess different levels of decoupling. Analyses of pupil size in the SAST (Chapter 5) provide further support to the levels of inattention hypothesis and to the decoupling hypothesis that off-line thought is a distinct mode of cognitive functioning that demands cognitive resources and is associated with deep levels of decoupling. The present work demonstrates that the elusive phenomenon of mindless reading can be vigorously investigated in the cognitive laboratory and further incorporated in the theoretical framework of cognitive science.
Anorexia nervosa und unipolare Affektive Störungen stellen häufige und schwerwiegende kinder- und jugendpsychiatrische Störungsbilder dar, deren Pathogenese bislang nicht vollständig entschlüsselt ist. Verschiedene Studien zeigen bei erwachsenen Patienten gravierende Auffälligkeiten in den kognitiven Funktionen. Dahingegen scheinen bei adoleszenten Patienten lediglich leichtere Einschränkungen in den kognitiven Funktionen vorzuliegen. Die Prävalenz der Anorexia nervosa und unipolaren Affektiven Störung ist mit Beginn der Adoleszenz deutlich erhöht. Es ist anzunehmen, dass kognitive Dysfunktionen, die sich bereits in diesem Alter abzeichnen, den weiteren Krankheitsverlauf bis in das Erwachsenenalter, die Behandlungsergebnisse und die Prognose maßgeblich beeinträchtigen könnten. Zudem ist von einem höheren Chronifizierungsrisiko auszugehen. In der vorliegenden Arbeit wurden daher kognitive Funktionen bei adoleszenten Patientinnen mit Anorexia nervosa sowie Patienten mit unipolaren Affektiven Störungen untersucht. Die Überprüfung der kognitiven Funktionen bei Patientinnen mit Anorexia nervosa erfolgte vor und nach Gewichtszunahme. Weiterhin wurden zugrundeliegende biologische Mechanismen überprüft. Zudem wurde die Spezifität kognitiver Dysfunktionen für beide Störungsbilder untersucht und bei Patienten mit unipolaren Affektiven Störungen geschlechtsbezogene Unterschiede exploriert. Insgesamt gingen 47 Patientinnen mit Anorexia nervosa (mittleres Alter 16,3 + 1,6 Jahre), 39 Patienten mit unipolaren Affektiven Störungen (mittleres Alter 15,5 + 1,3 Jahre) sowie 78 Kontrollprobanden (mittleres Alter 16,5 + 1,3 Jahre) in die Untersuchung ein. Sämtliche Studienteilnehmer durchliefen eine neuropsychologische Testbatterie, bestehend aus Verfahren zur Überprüfung der kognitiven Flexibilität sowie visuellen und psychomotorischen Verarbeitungsgeschwindigkeit. Neben einem Intelligenzscreening wurden zudem das Ausmaß der depressiven Symptomatik sowie die allgemeine psychische Belastung erfasst. Die Ergebnisse legen nahe, dass bei adoleszenten Patientinnen mit Anorexia nervosa, sowohl im akut untergewichtigen Zustand als auch nach Gewichtszunahme, lediglich milde Beeinträchtigungen in den kognitiven Funktionen vorliegen. Im akut untergewichtigen Zustand offenbarten sich deutliche Zusammenhänge zwischen dem appetitregulierenden Peptid Agouti-related Protein und kognitiver Flexibilität, nicht jedoch zwischen Agouti-related Protein und visueller oder psychomotorischer Verarbeitungsgeschwindigkeit. Bei dem Vergleich von Anorexia nervosa und unipolaren Affektiven Störungen prädizierte die Zugehörigkeit zu der Patientengruppe Anorexia nervosa ein Risiko für das Vorliegen kognitiver Dysfunktionen. Es zeigte sich zudem, dass adoleszente Patienten mit unipolaren Affektiven Störungen lediglich in der psychomotorischen Verarbeitungsgeschwindigkeit tendenziell schwächere Leistungen offenbarten als gesunde Kontrollprobanden. Es ergab sich jedoch ein genereller geschlechtsbezogener Vorteil für weibliche Probanden in der visuellen und psychomotorischen Verarbeitungsgeschwindigkeit. Die vorliegenden Befunde unterstreichen die Notwendigkeit der Überprüfung kognitiver Funktionen bei adoleszenten Patienten mit Anorexia nervosa sowie unipolaren Affektiven Störungen in der klinischen Routinediagnostik. Die Patienten könnten von spezifischen Therapieprogrammen profitieren, die Beeinträchtigungen in den kognitiven Funktionen mildern bzw. präventiv behandeln.
In der vorliegenden Arbeit werden verschiedene Spektrometer für die Analyse von Gasen bzw. Gasgemischen vorgestellt und deren Design, Aufbau, Charakterisierung und Optimierung beschrieben. Das Resultat der Optimierung und Weiterentwicklungen ist ein spektral breitbandiges Cavity-Ring-Down-Spektrometer (CRD-Spektrometer). Ausgangspunkt der hier vorgestellten Arbeit ist ein Spektrometer auf Basis klassischer Absorptionsspektroskopie in einer Multireflexionszelle. Für dieses Spektrometer wurde als Strahlquelle ein Superkontinuumlaser verwendet. Der Vorteil dieses Spektrometers liegt in seiner Kompaktheit. Mit diesem Spektrometer wurden Absorptionsspektren von mehreren Reingasen und einem Gasgemisch über einen Wellenlängenbereich von 1500 nm – 1700 nm aufgenommen. Der qualitative Vergleich mit zu erwartenden Spektren, welche auf der HITRAN-Datenbank basieren, zeigte eine gute Übereinstimmung. Die quantitative Interpretierbarkeit der Daten war jedoch stark eingeschränkt aufgrund des hohen zufälligen und systematischen Fehlers der Messungen. Als Konsequenz aus der als nicht zufriedenstellend bewerteten quantitativen Interpretierbarkeit der Daten wurde eine alternative Messmethode gesucht, welche eine höhere Sensitivität und Genauigkeit ermöglicht. Die Wahl fiel auf die Cavity-Ring-Down-Spektroskopie, eine resonatorgestützte Variante der Absorptionsspektroskopie. Wesentliche Vorteile dieser Technik sind a) die Unabhängigkeit von Leistungsschwankungen der Strahlquelle, b) ein effektiver Absorptionsweg von bis zu mehreren Kilometern, welcher sich unmittelbar auf die Sensitivität der Messungen auswirkt, c) die Ermittlung absoluter Absorberkonzentrationen, ohne die Notwendigkeit einer Kalibrierung oder den Vergleich mit einer Referenzzelle und d) die Vernachlässigbarkeit von Absorptionen außerhalb des Resonators. Als notwendiger Zwischenschritt auf dem Weg zu einem breitbandigen CRD-Spektrometer wurde zunächst ein monochromatisches CRD-Spektrometer designt, aufgebaut und charakterisiert. Für die effektive Einkopplung von Strahlungsenergie in einen Resonator ist die Anpassung der Strahlparameter an die Mode des Resonators notwendig. Voraussetzung dieser Anpassung ist die Kenntnis der Strahlparameter, welche experimentell ermittelt wurden. Im Laufe des Aufbaus des Spektrometers ergab sich, dass trotz der Modenanpassung die Einkopplung der Strahlungsenergie in den Resonator gestört wurde. Daraufhin wurden systematisch mögliche Ursachen dieser Störung untersucht und das Spektrometer optimiert. Mit diesem optimierten Spektrometer wurden Spektren gemessen, welche sowohl qualitativ als auch quantitativ gut mit den zu erwartenden Spektren übereinstimmen. Als Nachweisgrenze dieses Spektrometers wurde ein Wert für den Absorptionskoeffizienten alpha von 10^-8 cm-1 bestimmt. Mit dem monochromatischen CRD-Spektrometer war es zudem möglich, isotopenspezifische Messungen durchzuführen. Für das breitbandige Spektrometer wurde als Strahlquelle eine ASE-Diode (amplified spontaneous emission) verwendet. Dabei handelt es sich um eine inkohärente Strahlquelle. Mittels Messungen nach dem Prinzip der Cavity-Enhanced-Absorptionsspektroskopie wurde die generelle Funktionalität des resonatorgestützten Spektrometers überprüft. Anschließend wurden die wellenlängenabhängigen Abklingsignale des leeren und des mit einem CO2-Luft-Gemisch gefüllten Resonators gemessen und ebenfalls mit den zu erwartenden Spektren verglichen. Qualitativ stimmen die experimentellen Spektren gut mit den zu erwartenden Spektren überein. Für die quantitative Interpretation der Daten wurde ein spezieller Algorithmus entwickelt, der die spektrale Auflösung des Systems berücksichtigt. Mit dem vorgestellten Spektrometer ist so die qualitative und quantitative Interpretation der Spektren möglich. Die Nachweisgrenze des breitbandigen Cavity-Ring-Down-Spektrometers wurde zu einem Wert von alpha = 8x10^-7 cm-1 bestimmt. Der systematischen und der zufällige Fehler der Messungen lagen bei Werten von ca. 1%. Bei diesem Spektrometer handelt es sich um einen Prototyp. Mittels Optimierung des Systems lassen sich sowohl der Wert der Nachweisgrenze als auch die Fehler der Messungen verbessern.
Entwicklung, Implementierung und Erprobung eines planetaren Informationssystems auf Basis von ArcGIS
(2007)
Mit der Entwicklung der modernen Raumfahrt Mitte der 60er-Jahre des zwanzigsten Jahrhunderts und der Eroberung des Weltraums brach eine neue Epoche der bis dato auf Beobachtungen mit dem Teleskop gestützten planetaren Forschung an. Während des Wettrennens um die technologische Führerschaft im All zur Zeit des Kalten Krieges war das erste Ziel die Entsendung von Satelliten zur Erdbeobachtung, denen aber schon bald Sonden zum Mond und den benachbarten Planeten folgten. Diese Missionen lieferten eine enorme Fülle von Informationen in Form von Bildern und Messergebnissen in unterschiedlichen Datenformaten. Diese galt und gilt es zu strukturieren, zu verwalten, zu aktualisieren und zu interpretieren. Für die Interpretation terrestrischer Daten werden geographische Informationssysteme (GIS) hinzugezogen, die jedoch für planetare Anwendungen aufgrund unterschiedlicher Voraussetzungen nicht ohne weiteres eingesetzt werden können. Daher wurde im Rahmen dieser Arbeit die für die Verwaltung von geographischen Daten der Erdfernerkundung kommerziell erhältliche Software ArcGIS Desktop 9.0 / 9.1 (ESRI) mit eigenen Programmen und Modulen für die Planetenforschung angepasst. Diese ermöglichen die Aufbereitung und den Import planetarer Bild- und Textinformation in die kommerzielle Software. Zusätzlich wurde eine planetare Datenbank zur Speicherung und zentralen Verwaltung der Informationen aufgebaut. Die im Rahmen dieser Arbeit entwickelten Softwarekomponenten ermöglichen die schnelle und benutzerfreundliche Aufbereitung der in der Datenbank gehaltenen Informationen und das Auslesen in Dateiformate, die für geographische Informationssysteme geeignet sind. Des Weiteren wurde eine „Werkzeugleiste“ für ArcGIS entwickelt, die das Arbeiten mit planetaren Datensätzen beträchtlich beschleunigt und vereinfacht. Sie beinhaltet auch Module zur wissenschaftlichen Interpretation der planetaren Informationen, wie beispielsweise der Berechnung der Oberflächenrauigkeit der Marsoberfläche inklusive der flächendeckenden Kalibrierung der Eingangs-Basisdaten. Exemplarisch konnte gezeigt werden, dass das Verfahren eine verbesserte Berechnung der Oberflächenrauigkeit ermöglicht, als bisher angewandte Ansätze. Zudem wurde eine auf ArcGIS basierende Prozesskette zur Berechnung von hierarchischen Flussnetzen entwickelt und erprobt. Das terrestrische Beispiel, die Analyse eines Abflusssystems auf Island, zeigte eine sehr große Übereinstimmung der errechneten Gewässernetze mit den morphologischen Gegebenheiten vor Ort. Daraus ließ sich eine hohe Genauigkeit der mit demselben Ansatz errechneten Gewässernetze auf dem Mars ableiten. Auf der Grundlage der in dieser Arbeit entwickelten Programme und Module lassen sich auch Daten zukünftiger Missionen aufbereiten und in ein solches System einbinden, um diese mit eigenen Ansätzen zu verwalten, zu aktualisieren und für neue wissenschaftliche Fragestellungen perfekt anzupassen, einzusetzen und zu präsentieren, um so neue wissenschaftliche Erkenntnisse in der Planetenforschung zu gewinnen.
Organizations try to gain competitive advantages, and to increase customer satisfaction. To ensure the quality and efficiency of their business processes, they perform business process management. An important part of process management that happens on the daily operational level is process controlling. A prerequisite of controlling is process monitoring, i.e., keeping track of the performed activities in running process instances. Only by process monitoring can business analysts detect delays and react to deviations from the expected or guaranteed performance of a process instance. To enable monitoring, process events need to be collected from the process environment. When a business process is orchestrated by a process execution engine, monitoring is available for all orchestrated process activities. Many business processes, however, do not lend themselves to automatic orchestration, e.g., because of required freedom of action. This situation is often encountered in hospitals, where most business processes are manually enacted. Hence, in practice it is often inefficient or infeasible to document and monitor every process activity. Additionally, manual process execution and documentation is prone to errors, e.g., documentation of activities can be forgotten. Thus, organizations face the challenge of process events that occur, but are not observed by the monitoring environment. These unobserved process events can serve as basis for operational process decisions, even without exact knowledge of when they happened or when they will happen. An exemplary decision is whether to invest more resources to manage timely completion of a case, anticipating that the process end event will occur too late. This thesis offers means to reason about unobserved process events in a probabilistic way. We address decisive questions of process managers (e.g., "when will the case be finished?", or "when did we perform the activity that we forgot to document?") in this thesis. As main contribution, we introduce an advanced probabilistic model to business process management that is based on a stochastic variant of Petri nets. We present a holistic approach to use the model effectively along the business process lifecycle. Therefore, we provide techniques to discover such models from historical observations, to predict the termination time of processes, and to ensure quality by missing data management. We propose mechanisms to optimize configuration for monitoring and prediction, i.e., to offer guidance in selecting important activities to monitor. An implementation is provided as a proof of concept. For evaluation, we compare the accuracy of the approach with that of state-of-the-art approaches using real process data of a hospital. Additionally, we show its more general applicability in other domains by applying the approach on process data from logistics and finance.
This thesis gives formal definitions of discourse-givenness, coreference and reference, and reports on experiments with computational models of discourse-givenness of noun phrases for English and German. Definitions are based on Bach's (1987) work on reference, Kibble and van Deemter's (2000) work on coreference, and Kamp and Reyle's Discourse Representation Theory (1993). For the experiments, the following corpora with coreference annotation were used: MUC-7, OntoNotes and ARRAU for Englisch, and TueBa-D/Z for German. As for classification algorithms, they cover J48 decision trees, the rule based learner Ripper, and linear support vector machines. New features are suggested, representing the noun phrase's specificity as well as its context, which lead to a significant improvement of classification quality.
Adenylates are metabolites with essential function in metabolism and signaling in all living organisms. As Cofactors, they enable thermodynamically unfavorable reactions to be catalyzed enzymatically within cells. Outside the cell, adenylates are involved in signalling processes in animals and emerging evidence suggests similar signaling mechanisms in the plants’ apoplast. Presumably, apoplastic apyrases are involved in this signaling by hydrolyzing the signal mediating molecules ATP and ADP to AMP. This PhD thesis focused on the role of adenylates on metabolism and development of potato (Solanum tuberosum) by using reverse genetics and biochemical approaches. To study the short and long term effect of cellular ATP and the adenylate energy charge on potato tuber metabolism, an apyrase from Escherichia coli targeted into the amyloplast was expressed inducibly and constitutively. Both approaches led to the identification of adaptations to reduced ATP/energy charge levels on the molecular and developmental level. These comprised a reduction of metabolites and pathway fluxes that require significant amounts of ATP, like amino acid or starch synthesis, and an activation of processes that produce ATP, like respiration and an immense increase in the surface-to-volume ratio. To identify extracellular enzymes involved in adenylate conversion, green fluorescent protein and activity localization studies in potato tissue were carried out. It was found that extracellular ATP is imported into the cell by an apoplastic enzyme complement consisting of apyrase, unspecific phosphatase, adenosine nucleosidase and an adenine transport system. By changing the expression of a potato specific apyrase via transgenic approaches, it was found that this enzyme has strong impact on plant and particular tuber development in potato. Whereas metabolite levels were hardly altered, transcript profiling of tubers with reduced apyrase activity revealed a significant upregulation of genes coding for extensins, which are associated with polar growth. The results are discussed in context of adaptive responses of plants to changes in the adenylate levels and the proposed role of apyrase in apoplastic purinergic signaling and ATP salvaging. In summary, this thesis provides insight into adenylate regulated processes within and outside non-photosynthetic plant cells.
The Adana Basin of southern Turkey, situated at the SE margin of the Central Anatolian Plateau is ideally located to record Neogene topographic and tectonic changes in the easternmost Mediterranean realm. Using industry seismic reflection data we correlate 34 seismic profiles with corresponding exposed units in the Adana Basin. The time-depth conversion of the interpreted seismic profiles allows us to reconstruct the subsidence curve of the Adana Basin and to outline the occurrence of a major increase in both subsidence and sedimentation rates at 5.45 – 5.33 Ma, leading to the deposition of almost 1500 km3 of conglomerates and marls. Our provenance analysis of the conglomerates reveals that most of the sediment is derived from and north of the SE margin of the Central Anatolian Plateau. A comparison of these results with the composition of recent conglomerates and the present drainage basins indicates major changes between late Messinian and present-day source areas. We suggest that these changes in source areas result of uplift and ensuing erosion of the SE margin of the plateau. This hypothesis is supported by the comparison of the Adana Basin subsidence curve with the subsidence curve of the Mut Basin, a mainly Neogene basin located on top of the Central Anatolian Plateau southern margin, showing that the Adana Basin subsidence event is coeval with an uplift episode of the plateau southern margin. The collection of several fault measurements in the Adana region show different deformation styles for the NW and SE margins of the Adana Basin. The weakly seismic NW portion of the basin is characterized by extensional and transtensional structures cutting Neogene deposits, likely accomodating the differential uplift occurring between the basin and the SE margin of the plateau. We interpret the tectonic evolution of the southern flank of the Central Anatolian Plateau and the coeval subsidence and sedimentation in the Adana Basin to be related to deep lithospheric processes, particularly lithospheric delamination and slab break-off.
The layer-by-layer assembly (LBL) of polyelectrolytes has been extensively studied for the preparation of ultrathin films due to the versatility of the build-up process. The control of the permeability of these layers is particularly important as there are potential drug delivery applications. Multilayered polyelectrolyte microcapsules are also of great interest due to their possible use as microcontainers. This work will present two methods that can be used as employable drug delivery systems, both of which can encapsulate an active molecule and tune the release properties of the active species. Poly-(N-isopropyl acrylamide), (PNIPAM) is known to be a thermo-sensitive polymer that has a Lower Critical Solution Temperature (LCST) around 32oC; above this temperature PNIPAM is insoluble in water and collapses. It is also known that with the addition of salt, the LCST decreases. This work shows Differential Scanning Calorimetry (DSC) and Confocal Laser Scanning Microscopy (CLSM) evidence that the LCST of the PNIPAM can be tuned with salt type and concentration. Microcapsules were used to encapsulate this thermo-sensitive polymer, resulting in a reversible and tunable stimuli- responsive system. The encapsulation of the PNIPAM inside of the capsule was proven with Raman spectroscopy, DSC (bulk LCST measurements), AFM (thickness change), SEM (morphology change) and CLSM (in situ LCST measurement inside of the capsules). The exploitation of the capsules as a microcontainer is advantageous not only because of the protection the capsules give to the active molecules, but also because it facilitates easier transport. The second system investigated demonstrates the ability to reduce the permeability of polyelectrolyte multilayer films by the addition of charged wax particles. The incorporation of this hydrophobic coating leads to a reduced water sensitivity particularly after heating, which melts the wax, forming a barrier layer. This conclusion was proven with Neutron Reflectivity by showing the decreased presence of D2O in planar polyelectrolyte films after annealing creating a barrier layer. The permeability of capsules could also be decreased by the addition of a wax layer. This was proved by the increase in recovery time measured by Florescence Recovery After Photobleaching, (FRAP) measurements. In general two advanced methods, potentially suitable for drug delivery systems, have been proposed. In both cases, if biocompatible elements are used to fabricate the capsule wall, these systems provide a stable method of encapsulating active molecules. Stable encapsulation coupled with the ability to tune the wall thickness gives the ability to control the release profile of the molecule of interest.
Die von mir vorgelegte Arbeit widmet sich insgesamt der Fragestellung, wie große gelenkte Projekte an einer ostdeutschen Schule in der Wendezeit durchgeführt wurden, was aus ihnen folgte und welche Konsequenzen für die Theorie der schulischen Projektarbeit daraus gezogen werden können. Insbesondere zeigt sie auf inwieweit die Arbeit mit Projekten die Forderungen der Gesellschaft, Schule als Lern-, Arbeits-, Lebens- und Freizeitort für Schüler/innen zu gestalten, erfüllt werden kann. Unterschiedlichste Schülerbeispiele (für Begabte, (Hoch)begabte, "schwierig Begabte", Verhaltensschwierige, überraschende Entwicklungen, Lernunwillige u.a.) werden vorgestellt und daran aufgezeigt, was Projektarbeit leisten kann, um die individuellen Leistungsmöglichkeiten von allen Schüler/innen gerecht zu werden, um diese auszuschöpfen, zu fördern und weiter zu entwickeln.
The correction of software failures tends to be very cost-intensive because their debugging is an often time-consuming development activity. During this activity, developers largely attempt to understand what causes failures: Starting with a test case that reproduces the observable failure they have to follow failure causes on the infection chain back to the root cause (defect). This idealized procedure requires deep knowledge of the system and its behavior because failures and defects can be far apart from each other. Unfortunately, common debugging tools are inadequate for systematically investigating such infection chains in detail. Thus, developers have to rely primarily on their intuition and the localization of failure causes is not time-efficient. To prevent debugging by disorganized trial and error, experienced developers apply the scientific method and its systematic hypothesis-testing. However, even when using the scientific method, the search for failure causes can still be a laborious task. First, lacking expertise about the system makes it hard to understand incorrect behavior and to create reasonable hypotheses. Second, contemporary debugging approaches provide no or only partial support for the scientific method. In this dissertation, we present test-driven fault navigation as a debugging guide for localizing reproducible failures with the scientific method. Based on the analysis of passing and failing test cases, we reveal anomalies and integrate them into a breadth-first search that leads developers to defects. This systematic search consists of four specific navigation techniques that together support the creation, evaluation, and refinement of failure cause hypotheses for the scientific method. First, structure navigation localizes suspicious system parts and restricts the initial search space. Second, team navigation recommends experienced developers for helping with failures. Third, behavior navigation allows developers to follow emphasized infection chains back to root causes. Fourth, state navigation identifies corrupted state and reveals parts of the infection chain automatically. We implement test-driven fault navigation in our Path Tools framework for the Squeak/Smalltalk development environment and limit its computation cost with the help of our incremental dynamic analysis. This lightweight dynamic analysis ensures an immediate debugging experience with our tools by splitting the run-time overhead over multiple test runs depending on developers’ needs. Hence, our test-driven fault navigation in combination with our incremental dynamic analysis answers important questions in a short time: where to start debugging, who understands failure causes best, what happened before failures, and which state properties are infected.
Pronoun resolution normally takes place without conscious effort or awareness, yet the processes behind it are far from straightforward. A large number of cues and constraints have previously been recognised as playing a role in the identification and integration of potential antecedents, yet there is considerable debate over how these operate within the resolution process. The aim of this thesis is to investigate how the parser handles multiple antecedents in order to understand more about how certain information sources play a role during pronoun resolution. I consider how both structural information and information provided by the prior discourse is used during online processing. This is investigated through several eye tracking during reading experiments that are complemented by a number of offline questionnaire experiments. I begin by considering how condition B of the Binding Theory (Chomsky 1981; 1986) has been captured in pronoun processing models; some researchers have claimed that processing is faithful to syntactic constraints from the beginning of the search (e.g. Nicol and Swinney 1989), while others have claimed that potential antecedents which are ruled out on structural grounds nonetheless affect processing, because the parser must also pay attention to a potential antecedent’s features (e.g. Badecker and Straub 2002). My experimental findings demonstrate that the parser is sensitive to the subtle changes in syntactic configuration which either allow or disallow pronoun reference to a local antecedent, and indicate that the parser is normally faithful to condition B at all stages of processing. Secondly, I test the Primitives of Binding hypothesis proposed by Koornneef (2008) based on work by Reuland (2001), which is a modular approach to pronoun resolution in which variable binding (a semantic relationship between pronoun and antecedent) takes place before coreference. I demonstrate that a variable-binding (VB) antecedent is not systematically considered earlier than a coreference (CR) antecedent online. I then go on to explore whether these findings could be attributed to the linear order of the antecedents, and uncover a robust recency preference both online and offline. I consider what role the factor of recency plays in pronoun resolution and how it can be reconciled with the first-mention advantage (Gernsbacher and Hargreaves 1988; Arnold 2001; Arnold et al., 2007). Finally, I investigate how aspects of the prior discourse affect pronoun resolution. Prior discourse status clearly had an effect on pronoun resolution, but an antecedent’s appearance in the previous context was not always facilitative; I propose that this is due to the number of topic switches that a reader must make, leading to a lack of discourse coherence which has a detrimental effect on pronoun resolution. The sensitivity of the parser to structural cues does not entail that cue types can be easily separated into distinct sequential stages, and I therefore propose that the parser is structurally sensitive but not modular. Aspects of pronoun resolution can be captured within a parallel constraints model of pronoun resolution, however, such a model should be sensitive to the activation of potential antecedents based on discourse factors, and structural cues should be strongly weighted.
Aus dem Vorwort: Der entstehende deutsche Staat hatte 928/29 mit der Unterwerfung der damals östlich von Elbe und Saale siedelnden Slawen begonnen. Den meisten Stämmen war es jedoch durch den Aufstand von 983 gelungen, nochmals ihre Freiheit zu erkämpfen. Im 12. Jahrhundert begann ein erneuter Vorstoß. Während dieser zweiten Etappe der feudalen deutschen Ostexpansion wurden bis um 1300 die nördlichen und mittleren Teile des jetzt zur DDR gehörenden Gebietes endgültig dem deutschen Reich angegliedert. Damals entstand die Mehrzahl unserer Städte und Dörfer. Im 10. Jahrhundert hatten die Könige Heinrich I. und Otto I. das Vordringen nach Osten geleitet. Während des 12. und 13. Jahrhunderts lag die Initiative in den Händen der ostsächsischen Fürsten. Sie gingen daran, ihren Einfluß auf die slawischen Gebiete auszudehnen, wie der Herzog von Sachsen, Heinrich der Löwe aus dem Geschlecht der Welfen, und Erzbischof Wichmann von Magdeburg, oder gründeten östlich der Elbe neue Territorialherrschaften, wie der Markgraf der Nordmark, Albrecht der Bär aus dem Hause der Askanier, der erste Markgraf von Brandenburg. Im Süden begannen die Wettiner die Marken Lausitz und Meißen zu festigen und zu erweitern. Wie sich die eben grob skizzierten Vorgänge jedoch im einzelnen abgespielt haben, liegt immer noch weitgehend im dunkeln. Vor allem muß damit gerechnet werden, daß sich die Herrschaftsverhältnissein verschiedenen Gebieten mehrfach geändert hatten, bevor etwa in der zweiten Hälfte des 13. Jahrhunderts die Strukturen entstanden waren, die im wesentlichen bis in die neuere Zeit bestimmend blieben. So ist heute vielfach noch unklar oder umrtritten, welche deutsche Feudalgewalt einen bestimmten Raum als erste besetzte und wo der Einflußbereich der nächsten Herrschaft begann. Das gilt in besonderem Maße für die Grenzzonen der sich ausdehnenden Fürstentümer. Aber auch Fragen, die seit langem als geklärt galten, werden plötzlich wieder aufgeworfen, wie die vor der 750-Jahr-Feier Berlins erneut aufgenommene Diekussion über die Anfänge unsarer Hauptstadt beweist.
I perform and analyse the first ever calculations of rotating stellar iron core collapse in {3+1} general relativity that start out with presupernova models from stellar evolutionary calculations and include a microphysical finite-temperature nuclear equation of state, an approximate scheme for electron capture during collapse and neutrino pressure effects. Based on the results of these calculations, I obtain the to-date most realistic estimates for the gravitational wave signal from collapse, bounce and the early postbounce phase of core collapse supernovae. I supplement my {3+1} GR hydrodynamic simulations with 2D Newtonian neutrino radiation-hydrodynamic supernova calculations focussing on (1) the late postbounce gravitational wave emission owing to convective overturn, anisotropic neutrino emission and protoneutron star pulsations, and (2) on the gravitational wave signature of accretion-induced collapse of white dwarfs to neutron stars.
Die Expansion des renalen Tubulointerstitiums aufgrund einer Akkumulation zellulärer Bestandteile und extrazellulärer Matrix ist eine charakteristische Eigenschaft der chronischen Nierenerkrankung (CKD) und führt zu einer Progression der Erkrankung in Richtung eines terminalen Nierenversagens. Die Fibroblasten Proliferation und ihre Transformation hin zum sekretorischen Myofibroblasten-Phänotyp stellen hierbei Schlüsselereignisse dar. Signalprozesse, die zur Induktion der Myofibroblasten führen, werden aktiv beforscht um anti-fibrotische Therapieansätze zu identifizieren. Das anti-inflammatorische Protein Annexin A1 und sein Rezeptor Formyl-Peptid Rezeptor 2 (FPR2) wurden in verschiedenen Organsystemen mit der Regulation von Fibroblastenaktivität in Verbindung gebracht, jedoch wurden ihre Expression und Funktion bei renalen fibrotischen Erkrankungen bisher nicht untersucht. Ziel der aktuellen Studie war daher die Untersuchung der renalen Annexin A1- und FPR2-Expression in einem Tiermodell des chronischen Nierenversagens, sowie die Charakterisierung der funktionellen Rolle von Annexin A1 in der Regulation des Fibroblasten Phänotyps und ihrer Syntheseleistung. Dazu wurden neugeborene Sprague-Dawley Ratten in den ersten zwei Wochen ihres Lebens entweder mit Vehikel oder mit einem Angiotensin II Typ I Rezeptor Antagonisten behandelt und ohne weitere Intervention bis zu einem Alter von 11 Monaten (CKD Ratten) gehalten. Die Regulation und Lokalisation von Annexin A1 und FPR2 wurden mit Hilfe von Real-Time PCR und Immunhistochemie erfasst. Annexin A1- und FPR2-exprimierende Zellen wurden weiter durch Doppelimmunfluoreszenzfärbungen charakterisiert. Gefärbt wurde mit Antikörpern gegen endotheliale Zellen (rat endothelial cell antigen), Makrophagen (CD 68), Fibroblasten (CD73) und Myofibroblasten (alpha-smooth muscle actin (α-sma)). Zellkulturstudien wurden an immortalisierten renalen kortikalen Fibroblasten aus Wildtyp- und Annexin A1-defizienten Mäusen, sowie an etablierten humanen und murinen renalen Fibrolasten durchgeführt. Eine Überexpression von Annexin A1 wurde durch eine stabile Transfektion erreicht. Die Expression von Annexin A1, α-sma und Kollagen 1α1 wurde durch Real-Time PCR, Western Blot und Immuhistochemie erfasst. Die Sekretion des Annexin A1 Proteins wurde nach TCA-Fällung des Zellkulturüberstandes im Western Blot untersucht. Wie zu erwarten zeigten die CKD Ratten eine geringere Anzahl an Nephronen mit deutlicher glomerulären Hypertrophie. Der tubulointerstitielle Raum war durch fibrilläres Kollagen, aktivierte Fibroblasten und inflammatorische Zellen expandiert. Parallel dazu war die mRNA Expression von Annexin A1 und Transforming growth factor beta (TGF-β) signifikant erhöht. Die Annexin A1-Lokalisation mittels Doppelimmunfluorsezenz identifizierte eine große Anzahl von CD73-positiven kortikalen Fibroblasten und eine Subpopulation von Makrophagen als Annexin A1-positiv. Die Annexin A1-Menge in Myofibroblasten und renalen Endothelien war gering. FPR2 konnte in der Mehrzahl der renalen Fibroblasten, in Myofibroblasten, in einer Subpopulation von Makrophagen und in renalen Epithelzellen nachgewiesen werden. Eine Behandlung der murinen Fibroblasten mit dem pro-fibrotischen Zytokin TGF-β führte zu einem parallelen Anstieg der α-sma-, Kollagen 1α1- und Annexin A1-Biosynthese und zu einer gesteigerten Sekretion von Annexin A1. Eine Überexpression von Annexin A1 in murinen Fibroblasten reduzierte das Ausmaß der TGF-β induzierten α-sma- und Kollagen 1α1-Biosynthese. Fibroblasten aus Annexin A1-defizienten Mäusen zeigten einen starken Myofibroblasten-Phänotyp mit einer gesteigerten Expression an α-sma und Kollagen 1α1. Der Einsatz eines Peptidantagonisten des FPR2 (WRW4) resultierte in einer Stimulation der α-sma-Biosynthese, was die Vermutung nahe legte, dass Annexin A1 FPR2-vermittelt anti-fibrotische Effekte hat. Zusammenfassend zeigen diese Ergebnisse, dass renale kortikale Fibroblasten eine Hauptquelle des Annexin A1 im renalen Interstitium und einen Ansatzpunkt für Annexin A1-Signalwege in der Niere darstellen. Das Annexin A1/FPR2-System könnte daher eine wichtige Rolle in der Kontrolle des Fibroblasten Phänotyp und der Fibroblasten Aktivität spielen und daher einen neuen Ansatz für die anti-fibrotischen pharmakologischen Strategien in der Behandlung des CKD darstellen.
Indonesien zählt zu den weltweit führenden Ländern bei der Nutzung von geothermischer Energie. Die geothermischen Energiequellen sind im Wesentlichen an den aktiven Vulkanismus gebunden, der durch die Prozesse an der indonesischen Subduktionszone verursacht wird. Darüber hinaus sind geotektonische Strukturen wie beispielsweise die Sumatra-Störung als verstärkende Faktoren für das geothermische Potenzial von Bedeutung. Bei der geophysikalischen Erkundung der indonesischen Geothermie-Ressourcen konzentrierte man sich bisher vor allem auf die Magnetotellurik. Passive Seismologie wurde dahingegen ausschließlich für die Überwachung von im Betrieb befindlichen Geothermie-Anlagen verwendet. Jüngste Untersuchungungen z.B. in Island und in den USA haben jedoch gezeigt, dass seismologische Verfahren bereits in der Erkundungsphase wichtige Informationen zu den physikalischen Eigenschaften, zum Spannungsfeld und zu möglichen Fluid- und Wärmetransportwegen liefern können. In der vorgelegten Doktorarbeit werden verschiedene moderne Methoden der passiven Seismologie verwendet, um beispielhaft ein neues, von der indonesischen Regierung für zukünftige geothermische Energiegewinnung ausgewiesenes Gebiet im nördlichen Teil Sumatras (Indonesien) zu erkunden. Die konkreten Ziele der Untersuchungen umfassten (1) die Ableitung von 3D Strukturmodellen der P- und S-Wellen Geschwindigkeiten (Parameter Vp und Vs), (2) die Bestimmung der Absorptionseigenschaften (Parameter Qp), und (3) die Kartierung und Charakterisierung von Störungssystemen auf der Grundlage der Seismizitätsverteilung und der Herdflächenlösungen. Für diese Zwecke habe ich zusammen mit Kollegen ein seismologisches Netzwerk in Tarutung (Sumatra) aufgebaut und über einen Zeitraum von 10 Monaten (Mai 2011 – Februar 2012) betrieben. Insgesamt wurden hierbei 42 Stationen (jeweils ausgestattet mit EDL-Datenlogger, 3-Komponenten, 1 Hz Seismometer) über eine Fläche von etwa 35 x 35 km verteilt. Mit dem Netzwerk wurden im gesamten Zeitraum 2568 lokale Erdbeben registriert. Die integrierte Betrachtung der Ergebnisse aus den verschiedenen Teilstudien (Tomographie, Erdbebenverteilung) erlaubt neue Einblicke in die generelle geologische Stukturierung sowie eine Eingrenzung von Bereichen mit einem erhöhten geothermischen Potenzial. Das tomographische Vp-Modell ermöglicht eine Bestimmung der Geometrie von Sedimentbecken entlang der Sumatra-Störung. Für die Geothermie besonders interessant ist der Bereich nordwestlich des Tarutung-Beckens. Die dort abgebildeten Anomalien (erhöhtes Vp/Vs, geringes Qp) habe ich als mögliche Aufstiegswege von warmen Fluiden interpretiert. Die scheinbar asymetrische Verteilung der Anomalien wird hierbei im Zusammenhang mit der Seismizitätsverteilung, der Geometrie der Beben-Bruchflächen, sowie struktur-geologischen Modellvorstellungen diskutiert. Damit werden wesentliche Informationen für die Planung einer zukünftigen geothermischen Anlage bereitgestellt.
The sharply rising level of atmospheric carbon dioxide resulting from anthropogenic emissions is one of the greatest environmental concerns facing our civilization today. Metal-organic frameworks (MOFs) are a new class of materials that constructed by metal-containing nodes bonded to organic bridging ligands. MOFs could serve as an ideal platform for the development of next generation CO2 capture materials owing to their large capacity for the adsorption of gases and their structural and chemical tunability. The ability to rationally select the framework components is expected to allow the affinity of the internal pore surface toward CO2 to be precisely controlled, facilitating materials properties that are optimized for the specific type of CO2 capture to be performed (post-combustion capture, precombustion capture, or oxy-fuel combustion) and potentially even for the specific power plant in which the capture system is to be installed. For this reason, significant effort has been made in recent years in improving the gas separation performance of MOFs and some studies evaluating the prospects of deploying these materials in real-world CO2 capture systems have begun to emerge. We have developed six new MOFs, denoted as IFPs (IFP-5, -6, -7, -8, -9, -10, IFP = Imidazolate Framework Potsdam) and two hydrogen-bonded molecular building block (MBB, named as 1 and 2 for Zn and Co based, respectively) have been synthesized, characterized and applied for gas storage. The structure of IFP possesses 1D hexagonal channels. Metal centre and the substituent groups of C2 position of the linker protrude into the open channels and determine their accessible diameter. Interestingly, the channel diameters (range : 0.3 to 5.2 Å) for IFP structures are tuned by the metal centre (Zn, Co and Cd) and substituent of C2 position of the imidazolate linker. Moreover hydrogen bonded MBB of 1 and 2 is formed an in situ functionalization of a ligand under solvothermal condition. Two different types of channels are observed for 1 and 2. Materials contain solvent accessible void space. Solvent could be easily removed by under high vacuum. The porous framework has maintained the crystalline integrity even without solvent molecules. N2, H2, CO2 and CH4 gas sorption isotherms were performed. Gas uptake capacities are comparable with other frameworks. Gas uptake capacity is reduced when the channel diameter is narrow. For example, the channel diameter of IFP-5 (channel diameter: 3.8 Å) is slightly lower than that of IFP-1 (channel diameter: 4.2 Å); hence, the gas uptake capacity and Brunauer-Emmett-Teller (BET) surface area are slightly lower than IFP-1. The selectivity does not depend only on the size of the gas components (kinetic diameter: CO2 3.3 Å, N2 3.6 Å and CH4 3.8 ) but also on the polarizability of the surface and of the gas components. IFP-5 and-6 have the potential applications for the separation of CO2 and CH4 from N2-containing gas mixtures and CO2 and CH4 containing gas mixtures. Gas sorption isotherms of IFP-7, -8, -9, -10 exhibited hysteretic behavior due to flexible alkoxy (e.g., methoxy and ethoxy) substituents. Such phenomenon is a kind of gate effects which is rarely observed in microporous MOFs. IFP-7 (Zn-centred) has a flexible methoxy substituent. This is the first example where a flexible methoxy substituent shows the gate opening behavior in a MOF. Presence of methoxy functional group at the hexagonal channels, IFP-7 acted as molecular gate for N2 gas. Due to polar methoxy group and channel walls, wide hysteretic isotherm was observed during gas uptake. The N2 The estimated BET surface area for 1 is 471 m2 g-1 and the Langmuir surface area is 570 m2 g-1. However, such surface area is slightly higher than azolate-based hydrogen-bonded supramolecular assemblies and also comparable and higher than some hydrogen-bonded porous organic molecules.
Als ich anfing, ein Thema für meine Promotion zu erarbeiten, fand ich Massentests ziemlich beeindruckend. TIMSS: über 500000 Schüler getestet. PISA: 180000 Schüler getestet. Ich wollte diese Datenbasis nutzen, um Erkenntnisse für die Gestaltung von Unterricht zu gewinnen. Leider kam ich damit nicht weit. Je tiefer ich mich mit den Tests und den dahinterstehenden Theorien befasste, desto deutlicher schälte sich heraus, dass mit diesen Tests keine neue Erkenntnis generiert werden kann. Fast alle Schlussfolgerungen, die aus den Tests gezogen werden, konnten gar nicht aus den Tests selbst gewonnen werden. Ich konzentrierte mich zunehmend auf die Testaufgaben, weil die Geltung der Aussage eines Tests an der Aufgabe erzeugt wird: In der Aufgabe gerinnt das, was die Tester als „mathematische Leistungsfähigkeit“ konstruieren. Der Schüler wiederum hat nur die Aufgabe vor sich. Es gibt nur „gelöst“ (ein Punkt) und „ungelöst“ (kein Punkt). Damit der Schüler den Punkt bekommt, muss er an der richtigen Stelle ankreuzen, oder er muss etwas hinschrei-ben, wofür der Auswerter einen Punkt gibt. In der Dissertation wird untersucht, was die Aufgaben testen, was also alles in das Konstrukt von „mathematischer Leistungsfähigkeit“ einfließt, und ob es das ist, was der Test testen soll. Es stellte sich durchaus erstaunliches heraus: - Oftmals gibt es so viele Möglichkeiten, zur gewünschten Lösung (die nicht in jedem Fall die richtige Lösung ist) zu gelangen, dass man nicht benennen kann, welche Fähigkeit die Aufgabe eigentlich misst. Das Konstrukt „mathematische Leistungsfähigkeit“ wird damit zu einem zufälligen. - Es werden Komponenten von Testfähigkeit mitgemessen: Viele Aufgaben enthalten Irritationen, welche von testerfahrenen Schülern leichter überwunden werden können als von testunerfahrenen. Es gibt Aufgaben, die gelöst werden können, ohne dass man über die Fähigkeit verfügt, die getestet werden soll. Umgekehrt gibt es Aufgaben, die man eventuell nicht lösen kann, obwohl man über diese Fähigkeit verfügt. Als Kernkompetenz von Testfähigkeit stellt sich heraus, weder das gestellte mathematische Problem noch die angeblichen realen Proble-me ernst zu nehmen, sondern sich statt dessen auf das zu konzentrieren, was die Tester angekreuzt oder hinge-schrieben sehen wollen. Prinzipiell erweist es sich als günstig, mittelmäßig zu arbeiten, auf intellektuelle Tiefe in der Auseinandersetzung mit den Aufgaben also zu verzichten. - Man kann bei Multiple-Choice-Tests raten. Die PISA-Gruppe behauptet zwar, dieses Problem technisch über-winden zu können, dies erweist sich aber als Fehleinschätzung. - Sowohl bei TIMSS als auch bei PISA stellt sich heraus, dass die vorgeblich verwendeten didaktischen und psychologischen Theorien lediglich theoretische Mäntel für eine theoriearme Testerstellung sind. Am Beispiel der Theorie der mentalen Situationsmodelle (zur Bearbeitung von realitätsnahen Aufgaben) wird dies ausführlich exemplarisch ausgearbeitet. Das Problem reproduziert sich in anderen Theoriefeldern. Die Tests werden nicht durch Operationalisierungen von Messkonstrukten erstellt, sondern durch systematisches Zusammenstückeln von Aufgaben. - Bei PISA sollte „Mathematical Literacy“ getestet werden. Verkürzt sollte das die Fähigkeit sein, „die Rolle, die Mathematik in der Welt spielt, zu erkennen und zu verstehen, begründete mathematische Urteile abzugeben und sich auf eine Weise mit der Mathematik zu befassen, die den Anforderungen des gegenwärtigen und künftigen Lebens einer Person als eines konstruktiven, engagierten und reflektierten Bürgers entspricht“ (PISA-Eigendarstellung). Von all dem kann angesichts der Aufgaben keine Rede sein. - Bei der Untersuchung des PISA-Tests drängte sich ein mathematikdidaktischer Habitus auf, der eine separate Untersuchung erzwang. Ich habe ihn unter dem Stichwort der „Abkehr von der Sache“ zusammengefasst. Er ist geprägt von Zerstörungen des Mathematischen bei gleichzeitiger Überbetonung des Fachsprachlichen und durch Verwerfungen des Mathematischen und des Realen bei realitätsnahen Aufgaben. Letzteres gründet in der Nicht-beachtung der Authentizität sowohl des Realen als auch des Mathematischen. Die Arbeit versammelt neben den Untersuchungen zu TIMSS und PISA ein ausführliches Kapitel über das Prob-lem des Testens und eine Darstellung der Methodologie und Praxis der Objektiven Hermeneutik.
Diese Arbeit untersucht, was passiert, wenn in Non-Profit-Organisation (NPO) der Anspruch des Bürgerschaftlichen Engagements auf Praktiken des Freiwilligenmanagements trifft. Ausgangspunkt dieser Fragestellung ist eine doppelte Diagnose: Zum einen setzen NPOs aufgrund mehrerer Faktoren - u.a. Ressourcenknappheit, Wettbewerb und Nachahmungseffekten – vermehrt auf Freiwilligenmanagement. Mit dieser von der BWL inspirierten, aber für NPO entwickelten Personalführungsmethode wollen sie mehr und bessere Freiwillige gewinnen und deren Einsatz effizienter strukturieren. Zum anderen haben sich gleichzeitig viele NPO dem Ziel des bürgerschaftlichen Engagements verschrieben. Damit reagieren sie auf den aus Politik und Wissenschaft zu vernehmenden Anspruch, die Zivilgesellschaft möge die knappen Kassen der öffentlichen Hand kompensieren und das wachsende Partizipationsbedürfnis weiter Teile der Bevölkerung durch eine neue Kultur der Teilhabe der Bürgerinnen und Bürger befriedigen. Bei näherer Betrachtung zeigt sich jedoch: Während Freiwilligenmanagement einer ökonomischen Handlungslogik folgt, ist bürgerschaftliches Engagement Ausdruck einer Handlungslogik der Zivilgesellschaft. Beide sind unter gegenwärtigen Bedingungen weder theoretisch noch praktisch miteinander vereinbar. Um beide Entwicklungen miteinander zu versöhnen, muss Freiwilligenmanagement unter dem Banner des Bürgerschaftlichen neu gedacht werden. Dieses Argument unterfüttert die Arbeit sowohl theoretisch und empirisch. Der Theorieteil gliedert sich in drei Teile. Zunächst wird der Begriff der NPO näher eingegrenzt. Dazu wird die bestehende Literatur zum Dritten Sektor und Non-Profit-Organisationen zu einem operationalisierbaren Begriff von NPO kondensiert. Daran anschließend werden aktuelle Trends im Feld der NPO identifiziert, die zeigen, dass NPO tatsächlich oft von widerstreitenden Handlungslogiken gekennzeichnet sind, darunter eine ökonomische und eine bürgerschaftliche. Die beiden folgenden Kapitel untersuchen dann jeweils eine der beiden Logiken. Zunächst wird das Leitbild des bürgerschaftlichen Engagements als Ausdruck einer zivilgesellschaftlichen Handlungslogik näher definiert. Dabei zeigt sich, dass dieser Begriff oft sehr unscharf verwendet wird. Daher greift die Arbeit auf die politiktheoretische Diskussion um Zivil- und Bürgergesellschaft auf und schmiedet daraus eine qualifizierte Definition von bürgerschaftlichem Engagement, die sich maßgeblich am Ideal von gesellschaftlich-politischer Partizipation und bürgerschaftlicher Kompetenz orientiert. Dem wird im dritten und letzten Kapitel des Theorieteils die ökonomische Handlungslogik in Form der Theorie des Freiwilligenmanagements gegenübergestellt. Bei der Darstellung zeigt sich schnell, dass dessen Grundprinzipien – anders als oft vorgebracht – mit den qualifizierten Idealen von Partizipation und Konkurrenz im Konflikt stehen. In der empirischen Analyse wird dann in den 8 Interviews den Widersprüchen zwischen bürgerschaftlichem Engagement und Freiwilligenmanagement in der Praxis nachgegangen. Die Ergebnisse dieser Untersuchung lassen sich in 5 Punkten zusammenfassen: 1. Freiwilligenmanagement orientiert sich erstens im wesentlichen an einer Zahl: Dem Zugewinn oder Verlust von freiwilliger Arbeit. 2. Freiwilligenmanagement installiert ein umfassendes System der Selektion von „passenden“ Freiwilligen. 3. Positiv hervorzuheben ist die institutionalisierte Ansprechbarkeit, die im Rahmen von Freiwilligenmanagement in NPO Einzug erhält. 4. Freiwilligenmanagement ist eng mit dem Anspruch verbunden, die Arbeit der Freiwilligen zu kontrollieren. Der Eigensinn des Engagements, die Notwendigkeit von Spielräumen, die Möglichkeit des Ausprobierens oder der Anspruch der Freiwilligen, an Entscheidungen zu partizipieren bzw. gar selbstorganisiert und -verantwortlich zu handeln, rückt dabei in den Hintergrund. 5. In den Interviews wird eine starke Ökonomisierung des Engagements sichtbar. Freiwillige werden als Ressource betrachtet, ihr Engagement als „Zeitspende“ statistisch erfasst, ihre (Dienst-)Leistung monetär bewertet. Im Zuge dessen erhält auch der Managerialism verstärkt Einfluss auf die Arbeit in NPO und begründet ein stark hierarchisches Verhältnis: Während die Freiwilligenmangerin aktiv handelt, wird die freiwillig Engagierte zum Objekt von Management-Techniken. Dass dies dem Anspruch der Partizipation entgegenläuft, ergibt sich dabei von selbst. Angesichts dieser Diagnose, dass real-existierendes Freiwilligenmanagement nicht mit dem Ideal des bürgerschaftlichen Engagement im engeren Sinne zusammenpasst, formuliert das Fazit Vorschläge für ein bürgerschaftlich orientiertes, engagement-sensibles Freiwilligenmanagement.