Refine
Has Fulltext
- yes (2538) (remove)
Year of publication
Document Type
- Doctoral Thesis (2538) (remove)
Language
Keywords
- climate change (53)
- Klimawandel (51)
- Modellierung (34)
- Nanopartikel (28)
- machine learning (22)
- Fernerkundung (20)
- Synchronisation (19)
- remote sensing (18)
- Spracherwerb (17)
- Blickbewegungen (16)
Institute
- Institut für Physik und Astronomie (406)
- Institut für Biochemie und Biologie (386)
- Institut für Geowissenschaften (328)
- Institut für Chemie (304)
- Extern (151)
- Institut für Umweltwissenschaften und Geographie (122)
- Institut für Ernährungswissenschaft (102)
- Wirtschaftswissenschaften (97)
- Hasso-Plattner-Institut für Digital Engineering GmbH (92)
- Department Psychologie (89)
Einleitung & Problemstellung: Beschwerden nach Beschleunigungsverletzungen der Halswirbelsäule sind oft nur unzureichend einzuordnen und diagnostizierbar. Eine eindeutige Diagnostik ist jedoch für eine entsprechende Therapie wie auch möglicherweise entstehende versicherungsrechtliche Forderungen notwendig. Die Entwicklung eines geeigneten Diagnoseverfahrens liegt damit im Interesse von Betroffenen wie auch Kostenträgern. Neben Störungen der Weichteilgewebe ist fast immer die Funktion der Halsmuskulatur in Folge eines Traumas beeinträchtigt. Dabei wird vor allem die sensorische Funktion der HWS-Muskulatur, die an der Regulation des Gleichgewichts beteiligt ist, gestört. In Folge dessen kann angenommen werden, dass es zu einer Beeinträchtigung der Gleichgewichtsregulation kommt. Die Zielstellung der Arbeit lautete deshalb, die möglicherweise gestörte Gleichgewichtsregulation nach einem Trauma im HWS-Bereich apparativ zu erfassen, um so die Verletzung eindeutig diagnostizieren zu können. Methodik: Unter Verwendung eines posturographischen Messsystems mit Kraftmomentensensorik wurden bei 478 Probanden einer Vergleichsgruppe und bei 85 Probanden eines Patientenpools Kraftmomente unter der Fußsohle als Äußerung der posturalen Balanceregulation aufgezeichnet. Die gemessenen Balancezeitreihen wurden nichtlinear analysiert, um die hohe Variabilität der Gleichgewichtsregulation optimal zu beschreiben. Über die dabei gewonnenen Parameter kann überprüft werden, ob sich spezifische Unterschiede im Schwankungsverhalten anhand der plantaren Druckverteilung zwischen HWS-Traumatisierten und den Probanden der Kontrollgruppe klassifizieren lassen. Ergebnisse: Die beste Klassifizierung konnte dabei über Parameter erzielt werden, die das Schwankungsverhalten in Phasen beschreiben, in denen die Amplitudenschwankungen relativ gering ausgeprägt waren. Die Analysen ergaben signifikante Unterschiede im Balanceverhalten zwischen der Gruppe HWS-traumatisierter Probanden und der Vergleichsgruppe. Die höchsten Trennbarkeitsraten wurden dabei durch Messungen im ruhigen beidbeinigen Stand mit geschlossenen Augen erzielt. Diskussion: Das posturale Balanceverhalten wies jedoch in allen Messpositionen eine hohe individuelle Varianz auf, so dass kein allgemeingültiges Schwankungsmuster für eine Gruppengesamtheit klassifiziert werden konnte. Eine individuelle Vorhersage der Gruppenzugehörigkeit ist damit nicht möglich. Die verwendete Messtechnik und die angewandten Auswerteverfahren tragen somit zwar zu einem Erkenntnisgewinn und zur Beschreibung des Gleichgewichtsverhaltens nach HWS-Traumatisierung bei. Sie können jedoch zum derzeitigen Stand für den Einzelfall keinen Beitrag zu einer eindeutigen Bestimmung eines Schleudertraumas leisten.
In dieser Arbeit wurden die Möglichkeiten und Grenzen für Zirkulardichroismus-Messungen mit Synchrotronstrahlung untersucht. Dazu wurde ein Messaufbau für Zirkulardichroismus-Messungen an zwei Strahlrohren am Berliner Elektronenspeicherring für Synchrotronstrahlung eingesetzt, die für Messungen im Bereich des ultravioletten Lichts geeignet sind. Eigenschaften der Strahlrohre und des Messaufbau wurden in einigen wichtigen Punkten mit kommerziellen Zirkulardichroismus-Spektrometern verglichen. Der Schwerpunkt lag auf der Ausdehnung des zugänglichen Wellenlängenbereichs unterhalb von 180 nm zur Untersuchung des Zirkulardichroismus von Proteinen in diesem Bereich. In diesem Bereich ist es nicht nur die Lichtquelle sondern vor allem die Absorption des Lichts durch Wasser, die den Messbereich bei der Messung biologischer Proben in wässriger Lösung einschränkt. Es wurden Bedingungen gefunden, unter denen der Messbereich auf etwa 160 nm, in einigen Fällen bis auf 130 nm ausgedehnt werden konnte. Dazu musste die Pfadlänge deutlich reduziert werden und verschieden Probenküvetten wurden getestet. Der Einfluss der dabei auftretenden Spannungsdoppelbrechung in den Probenküvetten auf das Messsignal konnte mit einem alternativen Messaufbau deutlich reduziert werden. Systematische Fehler im Messsignal und auftretende Strahlenschäden begrenzen jedoch die Zuverlässigkeit der gemessenen Spektren. Bei Proteinfilmen schränkt die Absorption von Wasser den Messbereich kaum ein. Es wurden jedoch meist deutliche Unterschiede zwischen den Spektren von Proteinfilmen und den Spektren von Proteinen in wässriger Lösung festgestellt. Solange diese Unterschiede nicht minimiert werden können, stellen Proteinfilme keine praktikable Alternative zu Messungen in wässriger Lösung dar.
Die Arbeit geht der Frage nach, wie Innovationen in einer Organisation des öffentlichen Sektors aufgenommen wurden und zu welchen Veränderungen dies führte. Im Vordergrund steht hier nicht die Innovation selbst, sondern vielmehr die Anpassungsmechanismen in der Organisation. Folgende Forschungsfragen wurden dazu gewählt:
1. Wie wurde das Instrument Zielsteuerung bzw. Zielvereinbarung im öffentlichen Sektor eingeführt und in die Managementroutinen integriert?
2. Welche Faktoren führen zu einer Integration der Zielsteuerung in die Managementroutinen?
3. Welche Empfehlungen für die Praxis lassen sich daraus ableiten?
Dazu wurde ein Landesbetrieb in Brandenburg detailliert untersucht und 31 Interviews mit Führungskräften der zweiten und dritten Managementebene geführt. In dieser Organisation wurde im Rahmen der deutschlandweiten Reformbewegung in der öffentlichen Verwaltung das Instrument Zielsteuerung bzw. Zielvereinbarung eingeführt und mit ganz konkreten Erwartungen verbunden. Als Untersuchungseinheit der möglichen Anpassungen und Veränderungen wurde das Konstrukt der Managementroutinen herangezogen, welche als kollektive Handlungsmuster ganz bewusst individuelle Verhaltensweisen ausklammerten.
Die Arbeit konnte eine Reihe von früheren Erkenntnissen bestätigen und zudem nachweisen, dass, entgegen des häufigen Vorurteils, Innovationen aus dem privatwirtschaftlichem Raum doch auch zu positiven Veränderungen in Organisationen der öffentlichen Hand führen können. Es kam hier jedoch nicht zur Entwicklung neuer, sondern zu einer Anpassung der bestehenden Routinen. Auf dieser Basis konnte festgestellt werden, dass ein stufenweiser Einführungsvorgang zunächst auf der Ebene der veränderten Zielvorstellungen der Führungskräfte zum Erfolg führte. Erst nach der Anpassung auf dieser „ostentativen“ Ebene kam es mit etwas Verzögerung zu einer Veränderung auf der Ebene der konkreten Handlungen. Im Hinblick auf die Einflussfaktoren der Innovation konnte festgestellt werden, dass viele Aspekte der Zielsetzungstheorie nach wie vor relevant sind und instabile politische Rahmenbedingungen zu wesentlichen Einschränkungen der Entfaltungsmöglichkeiten der Innovation führen können. Für viele Einflussfaktoren konnten allerdings sowohl positive als auch negative Wirkungen identifiziert werden.
Zeugenschaft im Bild
(2015)
Zentrales Anliegen der Dissertation ist, Zeugenschaft als visuelle Strategie zu beleuchten. In Abgrenzung zur These der Undarstellbarkeit der Shoah wird der Begriff der Sichtbarmachung nutzbar gemacht, um Prozesse und die Wirkung von Bildern im Zusammenhang mit Zeugenschaft herauszustellen. Ausgangspunkt dabei ist, dass bildliche Zeugnisse einen Gegenpol zu den standardisierten Visualisierungspraktiken der Shoah bieten, sprich dem historischen Bildmaterial aufgenommen durch die Alliierten und der Nationalsozialisten. In der Arbeit wird das historische Bildmaterial als Visualisierungspraxis problematisiert und visuellen Zeugnissen gegenübergestellt, die Augen- und Überlebenszeugen der Shoah, aber auch authentische Orte des Geschehens aus einer nachträglichen Perspektive zeigen. Dabei werden insbesondere zwei kritische Strategien des Umgangs mit historischen Bildern der Shoah hervorgehoben: das Hinterfragen von Archivbildern innerhalb des Films (Harun Farockis AUFSCHUB, 2007) und die Verweigerung von Archivbildern aus der Zeit des Zweiten Weltkrieges (Claude Lanzmanns SHOAH, 1985).
Seit den 1990er Jahren wird Zeugenschaft in der Forschung als philosophische, moralische und erkenntnistheoretische Kategorie in den USA, aber auch in Deutschland viel diskutiert. Dabei wurde die bild- und medienwissenschaftliche Perspektive im Zusammenhang mit Zeugenschaft kaum beleuchtet, darin liegt der Forschungsbeitrag der Arbeit. Insbesondere drei Gesichtspunkte von visueller Zeugenschaft werden herausgearbeitet: 1) die Sichtbarmachung der Überlebenden und der Orte des Geschehens im Jetzt, 2) die nichtsprachlichen Aspekte von Zeugenaussagen und 3) die Rolle des Zuschauers, der durch den Akt des Sehens in einem Imaginationsprozess eine Verknüpfung zwischen den Bildern aus der Jetztzeit und der nicht-sichtbaren Vergangenheit herstellt.
Polen nimmt eine besondere historische Rolle als Zentrum des europäischen Judentums bis zum Zweiten Weltkrieg und gleichzeitig als »Schauplatz des Holocaust« und Ort der Augenzeugenschaft ein. Maßgeblich hat Claude Lanzmanns Film SHOAH dazu beigetragen, die Konzentrations- und Vernichtungslager im Polen der Nachkriegszeit sichtbar zu machen, und damit nicht nur Generationen von polnischen Filmemachern und Künstlern nach ihm beeinflusst, sondern auch kontroverse Debatten in Polen ausgelöst. Anhand der ausgewählten Filme lässt sich in der polnischen Erinnerungskultur seit der Wende von 1989 eine Hinwendung zur polnisch-jüdischen Geschichte erkennen, die sich verstärkt mit den Fragen der polnischen Mittäterschaft und Schuld an der Shoah auseinandersetzt.
Der Untersuchungsgegenstand unterteilt sich in zwei Formate: Dokumentar- und Kunstfilm. Einerseits ist das auf ihre unterschiedlichen Produktions- und Rezeptionsbedingungen sowie die Länge der Arbeiten zurückzuführen. Andererseits bewegen sich die Kategorien auf verschiedenen Reflexionsebenen und zielen auf unterschiedliche Wirkungen beim Zuschauer ab. Während sich in den Dokumentarfilmen zum Teil explizite Bezüge (aber auch Abgrenzungen) zum Lanzmann’schen Projekt erkennen lassen, handelt es sich bei den Produktionen des zeitgenössischen Künstlers Artur Żmijewski um einen Meta-Diskurs, der auf radikale und provokative Art und Weise bestehende erinnerungskulturelle Praktiken ausstellt und kritisch hinterfragt.
Im ersten Teil der Arbeit wurden Strategien zur Analyse von Transkripten erarbeitet. Die ersten Versuche zielten darauf ab, in mit Glaskapillaren genommenen Einzelzellproben verschiedener Gewebeschichten RT-PCR durchzuführen, um spezifische Transkripte nachweisen zu können. Dies gelang für eine Reihe von Genen aus verschiedenen Pflanzenspezies. Dabei konnten sowohl Transkripte stark wie auch schwach exprimierter Gene nachgewiesen werden. Für die Erstellung von Gewebe-spezifischen Expressionsprofilen war es notwendig, die in vereinigten Zellproben enthaltene mRNA zunächst zu amplifizieren, um eine ausreichende Menge für Arrayhybridisierungen zu erhalten. Vor der Vermehrung wurde die mRNA revers transkribiert. Es wurden daran anschließend verschiedene Amplifikationsstrategien getestet: Die neben Tailing, Adapterligation und anderen PCR-basierenden Protokollen getestete Arbitrary-PCR hat sich in dieser Arbeit als einfache und einzige Methode herausgestellt, die mit so geringen cDNA-Mengen reproduzierbar arbeitet. Durch Gewebe-spezifische Array-hybridisierungen mit der so amplifizierten RNA konnten schon bekannte Expressionsmuster verschiedener Gene, vornehmlich solcher, die an der Photosynthese beteiligt sind, beobachtet werden. Es wurden aber auch eine ganze Reihe neuer offensichtlich Gewebe-spezifisch exprimierter Gene gefunden. Exemplarisch für die differentiell exprimierten Gene konnte das durch Arrayhybridisierungen gefundene Expressionsmuster der kleinen Untereinheit von Rubisco verifiziert werden. Hierzu wurden Methoden zum Gewebe-spezifischen Northernblot sowie semiquantitativer und Echtzeit-Einzelzell-RT-PCR entwickelt. Im zweiten Teil der Arbeit wurden Methoden zur Analyse von Metaboliten einschließlich anorganischer Ionen verwendet. Es stellte sich heraus, daß die multiparallele Methode der Gaschromatographie-Massenspektrometrie keine geeignete Methode für die Analyse selbst vieler vereinigter Zellinhalte ist. Daher wurde auf Kapillarelektrophorese zurückgegriffen. Eine Methode, die mit sehr kleinen Probenvolumina auskommt, eine hohe Trennung erzielt und zudem extrem geringe Detektionslimits besitzt. Die Analyse von Kohlenhydraten und Anionen erfordert eine weitere Optimierung. Über UV-Detektion konnte die K+-Konzentration in verschiedenen Geweben von A. thaliana bestimmt werden. Sie lag in Epidermis und Mesophyll mit ca. 25 mM unterhalb der für andere Pflanzenspezies (Solanum tuberosum und Hordeum vulgare) publizierten Konzentration. Weiter konnte gezeigt werden, daß zwölf freie Aminosäuren mittels einer auf Kapillarelektrophorese basierenden Methode in vereinigten Zellproben von Cucurbita maxima identifiziert werden konnten. Die Übertragung der Methode auf A. thaliana-Proben muß jedoch weiter optimiert werden, da die Sensitivität selbst bei Laser induzierter Fluoreszenz-Detektion nicht ausreichte. Im dritten und letzten Teil der Arbeit wurde eine Methode entwickelt, die die Analyse bekannter wie unbekannter Proteine in Gewebe-spezifischen Proben ermöglicht. Hierzu wurde zur Probennahme mittels mechanischer Mikrodissektion eine alternative Methode zur Laser Capture Microdissection verwendet, um aus eingebetteten Gewebeschnitten distinkte Bereiche herauszuschneiden und somit homogenes Gewebe anzureichern. Aus diesem konnten die Proteine extrahiert und über Polyacrylamidgelelektrophorese separariert werden. Banden konnten ausgeschnitten, tryptisch verdaut und massenspektrometrisch die Primärsequenz der Peptidfragmente bestimmt werden. So konnten als Hauptproteine im Mesophyll die große Untereinheit von Rubisco sowie ein Chlorophyll bindendes Protein gefunden werden. Die in dieser Arbeit entwickelten und auf die Modellpflanze Arabidopsis thaliana angewandten Einzelzellanalysetechniken erlauben es in Zukunft, physiologische Prozesse besser sowohl räumlich als auch zeitlich aufzulösen. Dies wird zu einem detaillierteren Verständnis mannigfaltiger Vorgänge wie Zell-Zell-Kommunikation, Signalweiterleitung oder Pflanzen-Pathogen-Interaktionen führen.
Im Rahmen dieser Arbeit wurden zwei humane Varianten des von Wang et al., 1999, erstmals beschriebenen muskelspezifischen Proteins Xin (Huhn und Maus) über Sequenzanalyse, Immunofluoreszenzmikroskopie, Transfektionsstudien und biochemischer Analyse näher charakterisiert. Die Proteine wurden mit human Xin related proteins 1 und 2 – hXirp1 und 2 –bezeichnet. Die Xin-Proteine enthielten bisher unbekannte, sowie spezifische, repetitive Motive, die aus jeweils mindestens 16 Aminosäuren bestanden. Ihre Aminosäuresequenz, mit einer Vielzahl weiterer putativer Motivsequenzen, verwies auf eine potentielle Funktion von hXirp als Adapterprotein in Muskelzellen. Das hier näher untersuchte hXirp1 lokalisierte an den Zell-Matrix-Verbindungen der Muskel-Sehnen-Übergangszone im Skelettmuskel, sowie an den Zell-Zell-Verbindungen der Glanzstreifen im Herzmuskel. Während der Muskelentwicklung zeigte hXirp1 eine sehr frühe Expression, zusammen mit einer prägnanten Lokalisation an den Prämyofibrillen und deren Verankerungsstrukturen, die auf eine Funktion des Proteins in der Myofibrillogenese deuten. Ektopische Expressionen von hXirp1 in einer Vielzahl von Nichtmuskel-Kulturzellen zeigten wiederum eine Lokalisation des Proteins an den Zell-Matrix-Kontakten dieser Zellen. Am Beispiel von hXirp1 und 2 wurde stellvertretend für die Familie der Xin-Proteine gezeigt, daß es sich bei den repetitiven Motiven um neuartige, F-Aktin bindende Sequenzmotive handelte. Die Xin-Proteine können somit als muskelspezifische, aktinbindende, potentielle Adapterproteine bezeichnet werden, denen eine strukturelle und funktionelle Beteiligung an der Verankerung der Myofibrillen im adulten Muskel, wie auch während der Myofibrillogenese zukommt.
Die Hochwasserereignisse der letzten Jahre haben Mängel bei der schnellen Verfügbarkeit des klassischen Darstellungs-, Entscheidungs- und Analyseinstruments Karte offenbart. Die Erfahrungen von 1997 und 2002 verdeutlichen, dass eine homogene digitale Datengrundlage, die neben rein topographischen zusätzlich auch fachspezifische Informationen des Hochwasserschutzes enthält, für eine effektive Bekämpfung solcher Ereignisse notwendig ist. Mit den Daten des ,Amtlichen Topographisch-Kartographischen Informationssystems’ (ATKIS) liegen topographische Basisdaten in graphikfreier Form als digitales Landschaftsmodell (DLM) flächendeckend für die Bundesrepublik vor. Anhand der exemplarischen Ableitung von nutzerorientierten Kartenmodellen aus diesen graphikfreien Daten wurde deren Eignung für den besonderen Verwendungszweck im Rahmen eines Hochwasserschutz-Informationssystems überprüft. Als Anwendungsbeispiel wurde das Gebiet der Ziltendorfer Niederung, die während des Oder-Hochwassers 1997 überflutet wurde, gewählt. In Expertengesprächen wurden zunächst Inhalte identifiziert, die für einen wirksamen Hochwasserschutz Relevanz besitzen; diese Inhalte wurden anschließend analog zum ATKIS-Systemdesign strukturiert und als Objekte eines separaten Objektbereichs im digitalen Fachmodell (DFM) erfasst. Bei der Ableitung von (Bildschirm-) Karten aus den graphikfreien Daten wurden jeweils unterschiedliche Kriterien für die Basiskarte und die Fachinhalte berücksichtigt. Dabei wurden verschiedene kartographische Regeln und Gesetze mit dem Ziel der prägnanten Visualisierung und damit der eindeutigen Lesbarkeit der Karten angewendet. Beispielhaft sei hier die Schaffung einer visuellen Hierarchie zwischen Basiskarte und Fachinhalten genannt. Die besonderen Nutzungsbedingungen von Karten im Einsatzfall erfordern u.a., dass die Karten auch von Personen, die nur über geringe oder keine Erfahrung im Umgang mit Karten verfügen, schnell und einfach zu lesen sind, um so eine sichere Informationsvermittlung zu gewährleisten. Voraussetzung dafür ist einerseits die Beschränkung auf die Darstellung der wesentlichen Inhalte, andererseits die Verwendung leicht lesbarer Kartenzeichen. Aus diesem Grund wurden einheitliche Kartenzeichen zur Darstellung der Fachinhalte entwickelt, die entweder aus allgemein bekannten Symbolen, aus den im Katastrophenschutz üblicherweise verwendeten sog. taktischen Zeichen oder aus Fachzeichen des Hochwasserschutzes abgeleitet wurden. Die entwickelten Kartenmodelle wurden abschließend in qualitativen Experteninterviews in Bezug auf ihre Qualität und Verwendbarkeit im Hochwasserschutz geprüft. Die Auswertung der Interviews ergab eine insgesamt positive Beurteilung der Karten für den Einsatz in Hochwasserschutz-Informationssystemen. Damit leistet die vorliegende Arbeit einen Beitrag zur Entwicklung von (Bildschirm-) Karten zur Unterstützung bei der Entscheidungsfindung im Katastrophenmanagement.
Stellar magnetic fields, as a crucial component of star formation and evolution, evade direct observation at least with current and near future instruments. However investigating whether magnetic fields are generated by a dynamo process or represent relics from the formation process, or whether they show a behavior similar to the sun or something very different, it is essential to investigate their structure and temporal evolution. Fortunately nature provides us with the possibility to indirectly observe surface topologies on distant stars by means of Doppler shift and polarization of light, though not without its challenges. Based on the mentioned effects, the so called Zeeman-Doppler Imaging technique is a powerful method to retrieve magnetic fields from rapid rotating stars based on measurements of spectropolarimetric observations in terms of Stokes profiles. In recent years, a large number of stellar magnetic field distributions could be reconstructed by Zeeman-Doppler Imaging (ZDI). However, the implementation of this method often relies on many approximations because, as an inversion method, it entails enormous computational requirements. The aim of this thesis is to develop methods for a ZDI, designed to invert time-resolved spectropolarimetric data of active late type stars, and to account for the expected complex and small scale magnetic fields on these stars. In order to reliably reconstruct the detailed field orientation and strength, the inversion method is employed to be able to use of all four Stokes components. Furthermore it is based on fully polarized radiative transfer calculations to account for the intricate interplay between temperature and magnetic field. Finally, the application of a newly developed ZDI code to Stokes I and V observations of II Pegasi (short: II Peg) was supposed to deliver the first magnetic surface maps for this highly active star. To accomplish the high computational burden of a radiative transfer based ZDI, we developed a novel approximation method to speed up the inversion process. It is based on Principal Component Analysis and Artificial Neural Networks. The latter approximate the functional mapping between atmospheric parameters and the corresponding local Stokes profiles. Inverse problems, as we are dealing with, are potentially ill-posed and require a regularization method. We propose a new regularization scheme, which implements a local entropy function that accounts for the peculiarities of the reconstruction of localized magnetic fields. To deal with the relatively large noise that is always present in polarimetric data, we developed a multi-line denoising technique based on Principal Component Analysis. In contrast to other multi-line techniques that extract from a large number of spectral lines a sort of mean profile, this method allows to extract individual spectral lines and thus allows for an inversion on the basis of specific lines. All these methods are incorporated in our newly developed ZDI code iMap, which is based on a conjugated gradient method. An in depth validation of our new synthesis method demonstrates the reliability and accuracy of this approach as well as a gain in computation time by almost three orders of magnitude relative to the conventional radiative transfer calculations. We investigated the influence of the different Stokes components (IV / IVQU) on the ability to reconstruct a known synthetic field configuration. In doing so we validate the capability of our inversion code, and we also assess limitations of magnetic field inversions in general. In a first application to II Peg, a K2 IV subgiant, we derived temperature and magnetic field surface distributions from spectropolarimetric data obtained in 2004 and 2007. It gives for the first time simultaneously the temporal evolution of the surface temperature and magnetic field distribution on II Peg.
The exponential expanding of the numbers of web sites and Internet users makes WWW the most important global information resource. From information publishing and electronic commerce to entertainment and social networking, the Web allows an inexpensive and efficient access to the services provided by individuals and institutions. The basic units for distributing these services are the web sites scattered throughout the world. However, the extreme fragility of web services and content, the high competence between similar services supplied by different sites, and the wide geographic distributions of the web users drive the urgent requirement from the web managers to track and understand the usage interest of their web customers. This thesis, "X-tracking the Usage Interest on Web Sites", aims to fulfill this requirement. "X" stands two meanings: one is that the usage interest differs from various web sites, and the other is that usage interest is depicted from multi aspects: internal and external, structural and conceptual, objective and subjective. "Tracking" shows that our concentration is on locating and measuring the differences and changes among usage patterns. This thesis presents the methodologies on discovering usage interest on three kinds of web sites: the public information portal site, e-learning site that provides kinds of streaming lectures and social site that supplies the public discussions on IT issues. On different sites, we concentrate on different issues related with mining usage interest. The educational information portal sites were the first implementation scenarios on discovering usage patterns and optimizing the organization of web services. In such cases, the usage patterns are modeled as frequent page sets, navigation paths, navigation structures or graphs. However, a necessary requirement is to rebuild the individual behaviors from usage history. We give a systematic study on how to rebuild individual behaviors. Besides, this thesis shows a new strategy on building content clusters based on pair browsing retrieved from usage logs. The difference between such clusters and the original web structure displays the distance between the destinations from usage side and the expectations from design side. Moreover, we study the problem on tracking the changes of usage patterns in their life cycles. The changes are described from internal side integrating conceptual and structure features, and from external side for the physical features; and described from local side measuring the difference between two time spans, and global side showing the change tendency along the life cycle. A platform, Web-Cares, is developed to discover the usage interest, to measure the difference between usage interest and site expectation and to track the changes of usage patterns. E-learning site provides the teaching materials such as slides, recorded lecture videos and exercise sheets. We focus on discovering the learning interest on streaming lectures, such as real medias, mp4 and flash clips. Compared to the information portal site, the usage on streaming lectures encapsulates the variables such as viewing time and actions during learning processes. The learning interest is discovered in the form of answering 6 questions, which covers finding the relations between pieces of lectures and the preference among different forms of lectures. We prefer on detecting the changes of learning interest on the same course from different semesters. The differences on the content and structure between two courses leverage the changes on the learning interest. We give an algorithm on measuring the difference on learning interest integrated with similarity comparison between courses. A search engine, TASK-Moniminer, is created to help the teacher query the learning interest on their streaming lectures on tele-TASK site. Social site acts as an online community attracting web users to discuss the common topics and share their interesting information. Compared to the public information portal site and e-learning web site, the rich interactions among users and web content bring the wider range of content quality, on the other hand, provide more possibilities to express and model usage interest. We propose a framework on finding and recommending high reputation articles in a social site. We observed that the reputation is classified into global and local categories; the quality of the articles having high reputation is related with the content features. Based on these observations, our framework is implemented firstly by finding the articles having global or local reputation, and secondly clustering articles based on their content relations, and then the articles are selected and recommended from each cluster based on their reputation ranks.
X-rays are integral to furthering our knowledge of exoplanetary systems. In this work we discuss the use of X-ray observations to understand star-planet interac- tions, mass-loss rates of an exoplanet’s atmosphere and the study of an exoplanet’s atmospheric components using future X-ray spectroscopy.
The low-mass star GJ 1151 was reported to display variable low-frequency radio emission, which is an indication of coronal star-planet interactions with an unseen exoplanet. In chapter 5 we report the first X-ray detection of GJ 1151’s corona based on XMM-Newton data. Averaged over the observation, we detect the star with a low coronal temperature of 1.6 MK and an X-ray luminosity of LX = 5.5 × 1026 erg/s. This is compatible with the coronal assumptions for a sub-Alfvénic star- planet interaction origin of the observed radio signals from this star.
In chapter 6, we aim to characterise the high-energy environment of known ex- oplanets and estimate their mass-loss rates. This work is based on the soft X-ray instrument on board the Spectrum Roentgen Gamma (SRG) mission, eROSITA, along with archival data from ROSAT, XMM-Newton, and Chandra. We use these four X-ray source catalogues to derive X-ray luminosities of exoplanet host stars in the 0.2-2 keV energy band. A catalogue of the mass-loss rates of 287 exoplan- ets is presented, with 96 of these planets characterised for the first time using new eROSITA detections. Of these first time detections, 14 are of transiting exoplanets that undergo irradiation from their host stars that is of a level known to cause ob- servable evaporation signals in other systems, making them suitable for follow-up observations.
In the next generation of space observatories, X-ray transmission spectroscopy of an exoplanet’s atmosphere will be possible, allowing for a detailed look into the atmospheric composition of these planets. In chapter 7, we model sample spectra using a toy model of an exoplanetary atmosphere to predict what exoplanet transit observations with future X-ray missions such as Athena will look like. We then estimate the observable X-ray transmission spectrum for a typical Hot Jupiter-type exoplanet, giving us insights into the advances in X-ray observations of exoplanets in the decades to come.
Giacconi et al. (1962) discovered a diffuse cosmic X-ray background with rocket experiments when they searched for lunar X-ray emission. Later satellite missions found a spectral peak in the cosmic X-ray background at ~30 keV. Imaging X-ray satellites such as ROSAT (1990-1999) were able to resolve up to 80% of the background below 2 keV into single point sources, mainly active galaxies. The cosmic X-ray background is the integration of all accreting super-massive (several million solar masses) black holes in the centre of active galaxies over cosmic time. Synthesis models need further populations of X-ray absorbed active galaxy nuclei (AGN) in order to explain the cosmic X-ray background peak at ~30 keV. Current X-ray missions such as XMM-Newton and Chandra offer the possibility of studying these additional populations. This Ph.D. thesis studies the populations that dominate the X-ray sky. For this purpose the 120 ksec XMM-Newton Marano field survey, named for an earlier optical quasar survey in the southern hemisphere, is analysed. Based on the optical follow-up observations the X-ray sources are spectroscopically classified. Optical and X-ray properties of the different X-ray source populations are studied and differences are derived. The amount of absorption in the X-ray spectra of type II AGN, which are considered as a main contributor to the X-ray background at ~30 keV, is determined. In order to extend the sample size of the rare type II AGN, this study also includes objects from another survey, the XMM-Newton Serendipitous Medium Sample. In addition, the dependence of the absorption in type II AGN with redshift and X-ray luminosity is analysed. We detected 328 X-ray sources in the Marano field. 140 sources were spectroscopically classified. We found 89 type I AGN, 36 type II AGN, 6 galaxies, and 9 stars. AGN, galaxies, and stars are clearly distinguishable by their optical and X-ray properties. Type I and II AGN do not separate clearly. They have a significant overlap in all studied properties. In a few cases the X-ray properties are in contradiction to the observed optical properties for type I and type II AGN. For example we find type II AGN that show evidence for optical absorption but are not absorbed in X-rays. Based on the additional use of near infra-red imaging (K-band), we were able to identify several of the rare type II AGN. The X-ray spectra of type II AGN from the XMM-Newton Marano field survey and the XMM-Newton Serendipitous Medium Sample were analysed. Since most of the sources have only ~40 X-ray counts in the XMM-Newton PN-detector, I carefully studied the fit results of simulated X-ray spectra as a function of fit statistic and binning method. The objects revealed only moderate absorption. In particular, I do not find any Compton-thick sources (absorbed by column densities of NH > 1.5 x 10^24 cm^−2). This gives evidence that type II AGN are not the main contributor of the X-ray background around 30 keV. Although bias effects may occur, type II AGN show no noticeable trend of the amount of absorption with redshift or X-ray luminosity.
Writing travel, writing life
(2022)
The book compares the texts of three Swiss authors: Ella Maillart, Annemarie Schwarzenbach and Nicolas Bouvier. The focus is on their trip from Genève to Kabul that Ella Maillart and Annemarie Schwarzenbach made together in 1939/1940 and Nicolas Bouvier 1953/1954 with the artist Thierry Vernet. The comparison shows the strong connection between the journey and life and between ars vivendi and travel literature.
This book also gives an overview of and organises the numerous terms, genres, and categories that already exist to describe various travel texts and proposes the new term travelling narration. The travelling narration looks at the text from a narratological perspective that distinguishes the author, narrator, and protagonist within the narration.
In the examination, ten motifs could be found to characterise the travelling narration: Culture, Crossing Borders, Freedom, Time and Space, the Aesthetics of Landscapes, Writing and Reading, the Self and/as the Other, Home, Religion and Spirituality as well as the Journey. The importance of each individual motif does not only apply in the 1930s or 1950s but also transmits important findings for living together today and in the future.
In den letzten 20 Jahren sind Evaluationen Schritt für Schritt zu einem festen und gleichzeitig kontrovers diskutierten Bestandteil politischer Förderung geworden. Auf der Basis langjähriger Beobachtungen der Evaluationspraxis des Förderprogramms „Soziale Stadt“ zeigt dieses Buch zunächst, dass Evaluationstätigkeiten in Ministerien, Kommunalverwaltungen und Planungsbüros mit ganz unterschiedlichen Erwartungen, Herausforderungen, Widersprüchen und Irritationen verknüpft werden. Evaluationen werden dabei sowohl als Hoffnungsträger, als auch als Schreckgespenst gesehen. Der Autor nimmt diese Beobachtungen zum Anlass, den Umgang mit Evaluationen in politischen Organisationen kritisch zu hinterfragen und systematisch zu erklären. Reduziert auf die Frage „Wozu Evaluation?“ wird auf der Basis eines systemtheoretischen Zugangs erklärt, welche unterschiedlichen Funktionen Evaluationen in Organisationen erfüllen können. Vertiefend wird dabei auf organisationales Lernen, auf politische Steuerungslogik und auf die Notwendigkeit von Symbolisierungen eingegangen.
World market governance
(2014)
Democratic capitalism or liberal democracy, as the successful marriage of convenience between market liberalism and democracy sometimes is called, is in trouble. The market economy system has become global and there is a growing mismatch with the territoriality of the nation-states. The functional global networks and inter-governmental order can no longer keep pace with the rapid development of the global market economy and regulatory capture is all too common. Concepts like de-globalization, self-regulation, and global government are floated in the debate. The alternatives are analysed and found to be improper, inadequate or plainly impossible. The proposed route is instead to accept that the global market economy has developed into an independent fundamental societal system that needs its own governance. The suggestion is World Market Governance based on the Rule of Law in order to shape the fitness environment for the global market economy and strengthen the nation-states so that they can regain the sovereignty to decide upon the social and cultural conditions in each country. Elements in the proposed Rule of Law are international legislation decided by an Assembly supported by a Council, and an independent Judiciary. Existing international organisations would function as executors. The need for broad sustained demand for regulations in the common interest is identified.
Workplace-related anxieties and workplace phobia : a concept of domain-specific mental disorders
(2008)
Background: Anxiety in the workplace is a special problem as workplaces are especially prone to provoke anxiety: There are social hierarchies, rivalries between colleagues, sanctioning through superiors, danger of accidents, failure, and worries of job security. Workplace phobia is a phobic anxiety reaction with symptoms of panic occurring when thinking of or approaching the workplace, and with clear tendency of avoidance. Objectives: What characterizes workplace-related anxieties and workplace phobia as domain-specific mental disorders in contrast to conventional anxiety disorders? Method: 230 patients from an inpatient psychosomatic rehabilitation center were interviewed with the (semi-)structured Mini-Work-Anxiety-Interview and the Mini International Neuropsychiatric Interview, concerning workplace-related anxieties and conventional mental disorders. Additionally, the patients filled in the self-rating questionnaires Job-Anxiety-Scale (JAS) and the Symptom Checklist (SCL-90-R)measuring job-related and general psychosomatic symptom load. Results: Workplace-related anxieties occurred together with conventional anxiety disorders in 35% of the patients, but also alone in others (23%). Workplace phobia could be found in 17% of the interviewed, any diagnosis of workplace-related anxiety was stated in 58%. Workplace phobic patients had significantly higher scores in job-anxiety than patients without workplace phobia. Patients with workplace phobia were significantly longer on sick leave in the past 12 months (23,5 weeks) than patients without workplace phobia (13,4 weeks). Different qualities of workplace-related anxieties lead with different frequencies to work participation disorders. Conclusion: Workplace phobia cannot be described by only assessing the general level of psychosomatic symptom load and conventional mental disorders. Workplace-related anxieties and workplace phobia have an own clinical value which is mainly defined by specific workplace-related symptom load and work-participation disorders. They require special therapeutic attention and treatment instead of a “sick leave” certification by the general health physician. Workplace phobia should be named with a proper diagnosis according to ICD-10 chapter V, F 40.8: “workplace phobia”.
This dissertation investigates the working memory mechanism subserving human sentence processing and its relative contribution to processing difficulty as compared to syntactic prediction. Within the last decades, evidence for a content-addressable memory system underlying human cognition in general has accumulated (e.g., Anderson et al., 2004). In sentence processing research, it has been proposed that this general content-addressable architecture is also used for language processing (e.g., McElree, 2000).
Although there is a growing body of evidence from various kinds of linguistic dependencies that is consistent with a general content-addressable memory subserving sentence processing (e.g., McElree et al., 2003; VanDyke2006), the case of reflexive-antecedent dependencies has challenged this view. It has been proposed that in the processing of reflexive-antecedent dependencies, a syntactic-structure based memory access is used rather than cue-based retrieval within a content-addressable framework (e.g., Sturt, 2003).
Two eye-tracking experiments on Chinese reflexives were designed to tease apart accounts assuming a syntactic-structure based memory access mechanism from cue-based retrieval (implemented in ACT-R as proposed by Lewis and Vasishth (2005).
In both experiments, interference effects were observed from noun phrases which syntactically do not qualify as the reflexive's antecedent but match the animacy requirement the reflexive imposes on its antecedent. These results are interpreted as evidence against a purely syntactic-structure based memory access. However, the exact pattern of effects observed in the data is only partially compatible with the Lewis and Vasishth cue-based parsing model.
Therefore, an extension of the Lewis and Vasishth model is proposed. Two principles are added to the original model, namely 'cue confusion' and 'distractor prominence'.
Although interference effects are generally interpreted in favor of a content-addressable memory architecture, an alternative explanation for interference effects in reflexive processing has been proposed which, crucially, might reconcile interference effects with a structure-based account.
It has been argued that interference effects do not necessarily reflect cue-based retrieval interference in a content-addressable memory but might equally well be accounted for by interference effects which have already occurred at the moment of encoding the antecedent in memory (Dillon, 2011).
Three experiments (eye-tracking and self-paced reading) on German reflexives and Swedish possessives were designed to tease apart cue-based retrieval interference from encoding interference. The results of all three experiments suggest that there is no evidence that encoding interference affects the retrieval of a reflexive's antecedent.
Taken together, these findings suggest that the processing of reflexives can be explained with the same cue-based retrieval mechanism that has been invoked to explain syntactic dependency resolution in a range of other structures. This supports the view that the language processing system is located within a general cognitive architecture, with a general-purpose content-addressable working memory system operating on linguistic expressions.
Finally, two experiments (self-paced reading and eye-tracking) using Chinese relative clauses were conducted to determine the relative contribution to sentence processing difficulty of working-memory processes as compared to syntactic prediction during incremental parsing.
Chinese has the cross-linguistically rare property of being a language with subject-verb-object word order and pre-nominal relative clauses. This property leads to opposing predictions of expectation-based
accounts and memory-based accounts with respect to the relative processing difficulty of subject vs. object relatives.
Previous studies showed contradictory results, which has been attributed to different kinds local ambiguities confounding the materials (Lin and Bever, 2011). The two experiments presented are the first to compare Chinese relatives clauses in syntactically unambiguous contexts.
The results of both experiments were consistent with the predictions of the expectation-based account of sentence processing but not with the memory-based account. From these findings, I conclude that any theory of human sentence processing needs to take into account the power of predictive processes unfolding in the human mind.
There is evidence that infants start extracting words from fluent speech around 7.5 months of age (e.g., Jusczyk & Aslin, 1995) and that they use at least two mechanisms to segment words forms from fluent speech: prosodic information (e.g., Jusczyk, Cutler & Redanz, 1993) and statistical information (e.g., Saffran, Aslin & Newport, 1996). However, how these two mechanisms interact and whether they change during development is still not fully understood.
The main aim of the present work is to understand in what way different cues to word segmentation are exploited by infants when learning the language in their environment, as well as to explore whether this ability is related to later language skills. In Chapter 3 we pursued to determine the reliability of the method used in most of the experiments in the present thesis (the Headturn Preference Procedure), as well as to examine correlations and individual differences between infants’ performance and later language outcomes. In Chapter 4 we investigated how German-speaking adults weigh statistical and prosodic information for word segmentation. We familiarized adults with an auditory string in which statistical and prosodic information indicated different word boundaries and obtained both behavioral and pupillometry responses. Then, we conducted further experiments to understand in what way different cues to word segmentation are exploited by 9-month-old German-learning infants (Chapter 5) and by 6-month-old German-learning infants (Chapter 6). In addition, we conducted follow-up questionnaires with the infants and obtained language outcomes at later stages of development.
Our findings from this thesis revealed that (1) German-speaking adults show a strong weight of prosodic cues, at least for the materials used in this study and that (2) German-learning infants weight these two kind of cues differently depending on age and/or language experience. We observed that, unlike English-learning infants, 6-month-old infants relied more strongly on prosodic cues. Nine-month-olds do not show any preference for either of the cues in the word segmentation task. From the present results it remains unclear whether the ability to use prosodic cues to word segmentation relates to later language vocabulary. We speculate that prosody provides infants with their first window into the specific acoustic regularities in the signal, which enables them to master the specific stress pattern of German rapidly. Our findings are a step forwards in the understanding of an early impact of the native prosody compared to statistical learning in early word segmentation.
This thesis explores word order variability in verb-final languages. Verb-final languages have a reputation for a high amount of word order variability. However, that reputation amounts to an urban myth due to a lack of systematic investigation. This thesis provides such a systematic investigation by presenting original data from several verb-final languages with a focus on four Uralic ones: Estonian, Udmurt, Meadow Mari, and South Sámi. As with every urban myth, there is a kernel of truth in that many unrelated verb-final languages share a particular kind of word order variability, A-scrambling, in which the fronted elements do not receive a special information-structural role, such as topic or contrastive focus. That word order variability goes hand in hand with placing focussed phrases further to the right in the position directly in front of the verb. Variations on this pattern are exemplified by Uyghur, Standard Dargwa, Eastern Armenian, and three of the Uralic languages, Estonian, Udmurt, and Meadow Mari. So far for the kernel of truth, but the fourth Uralic language, South Sámi, is comparably rigid and does not feature this particular kind of word order variability. Further such comparably rigid, non-scrambling verb-final languages are Dutch, Afrikaans, Amharic, and Korean. In contrast to scrambling languages, non-scrambling languages feature obligatory subject movement, causing word order rigidity next to other typical EPP effects.
The EPP is a defining feature of South Sámi clause structure in general. South Sámi exhibits a one-of-a-kind alternation between SOV and SAuxOV order that is captured by the assumption of the EPP and obligatory movement of auxiliaries but not lexical verbs. Other languages that allow for SAuxOV order either lack an alternation because the auxiliary is obligatorily present (Macro-Sudan SAuxOVX languages), or feature an alternation between SVO and SAuxOV (Kru languages; V2 with underlying OV as a fringe case). In the SVO–SAuxOV languages, both auxiliaries and lexical verbs move. Hence, South Sámi shows that the textbook difference between the VO languages English and French, whether verb movement is restricted to auxiliaries, also extends to OV languages. SAuxOV languages are an outlier among OV languages in general but are united by the presence of the EPP.
Word order variability is not restricted to the preverbal field in verb-final languages, as most of them feature postverbal elements (PVE). PVE challenge the notion of verb-finality in a language. Strictly verb-final languages without any clause-internal PVE are rare. This thesis charts the first structural and descriptive typology of PVE. Verb-final languages vary in the categories they allow as PVE. Allowing for non-oblique PVE is a pivotal threshold: when non-oblique PVE are allowed, PVE can be used for information-structural effects. Many areally and genetically unrelated languages only allow for given PVE but differ in whether the PVE are contrastive. In those languages, verb-finality is not at stake since verb-medial orders are marked. In contrast, the Uralic languages Estonian and Udmurt allow for any PVE, including information focus. Verb-medial orders can be used in the same contexts as verb-final orders without semantic and pragmatic differences. As such, verb placement is subject to actual free variation. The underlying verb-finality of Estonian and Udmurt can only be inferred from a range of diagnostics indicating optional verb movement in both languages. In general, it is not possible to account for PVE with a uniform analysis: rightwards merge, leftward verb movement, and rightwards phrasal movement are required to capture the cross- and intralinguistic variation.
Knowing that a language is verb-final does not allow one to draw conclusions about word order variability in that language. There are patterns of homogeneity, such as the word order variability driven by directly preverbal focus and the givenness of postverbal elements, but those are not brought about by verb-finality alone. Preverbal word order variability is restricted by the more abstract property of obligatory subject movement, whereas the determinant of postverbal word order variability has to be determined in the future.
The present work deals with the variation in the linearisation of German infinitival complements from a diachronic perspective. Based on the observation that in present-day German the position of infinitival complements is restricted by properties of the matrix verb (Haider, 2010, Wurmbrand, 2001), whereas this appears much more liberal in older stages of German (Demske, 2008, Maché and Abraham, 2011, Demske, 2015), this dissertation investigates the emergence of those restrictions and the factors that have led to a reduced, yet still existing variability. The study contrasts infinitival complements of two types of matrix verbs, namely raising and control verbs. In present-day German, these show different syntactic behaviour and opposite preferences as far as the position of the infinitive is concerned: while infinitival complements of raising verbs build a single clausal domain with the with the matrix verb and occur obligatorily intraposed, infinitive complements of control verbs can form clausal constituents and occur predominantly extraposed. This correlation is not attested in older stages of German, at least not until Early New High German.
Drawing on diachronic corpus data, the present work provides a description of the changes in the linearisation of infinitival complements from Early New High German to present-day German which aims at finding out when the correlation between infinitive type and word order emerged and further examines their possible causes. The study shows that word order change in German infinitival complements is not a case of syntactic change in the narrow sense, but that the diachronic variation results from the interaction of different language-internal and language-external factors and that it reflects, on the one hand, the influence of language modality on the emerging standard language and, on the other hand, a process of specialisation.
Entsprechend der Zielstellung wurden zunächst verschiedene Varianten der Kompostierung von Holzsubstanz getestet, um eine optimale Technologie, die auch für Entwicklungsländer realisierbar ist, herauszufinden. Hierzu sind in Pflanztöpfe Holzspäne (Woodchips) von zwei verschieden Holzarten (Laub- und Nadelholz) gefüllt und mit verschiedenen natürlichen Stickstoffquellen gemischt worden. Diese Ansätze wurden regelmäßig mit Kompostwasser appliziert. Nach vier Wochen sind zwei verschiedene Wurmarten (Dendrobaena veneta und Eisenia fetida) hinzugegeben worden. Die Feuchthaltung erfolgte ab diesem Zeitpunkt durch Frischwasser. Die qualitativ beste Versuchsvariante ist im nächsten Schritt mit weiteren natürlichen Stickstoffquellen, die in Entwicklungsländern zur Verfügung gestellt werden könnten, getestet worden. Von allen Kompostvarianten sind im Labor eine Vielzahl von bodenphysikalischen (z.B. Dichte, Wasserhaltekapazität) und bodenchemischen Zustandsgrößen (z.B. Elektrische Leitfähigkeit, Totalgehalte biophiler Elemente, Bodenreaktion, organische Substanzgehalte, Kationenaustauschkapazität) bestimmt worden. Die Wiederum qualitativ beste Mischung ist in einer weiteren Versuchsreihe in verschiedenen Mengenverhältnissen mit tertiärerem Abraumsand des Braunkohlebergbaus gemischt worden. In diese Versuchsmischungen wurde die Grasmischung RSM 7.2.1 eingesät und regelmäßig bewässert sowie die Wuchshöhe gemessen. Nach 42 Tagen wurden das Gras geerntet und die biometrischen Parameter, die Nährstoffgehalte (pflanzenverfügbare Fraktionen), die Bodenreaktion, die effektive bzw. potentielle Kationenaustauschkapazität sowie die Pufferkapazitäten der Mischsubstrate bestimmt. Die nächsten Versuchsvarianten sind als Feldversuche in der Niederlausitz durchgeführt worden. Für ihre Realisierung wurde als weiterer Zuschlagsstoff Arkadolith® zugemischt. Die Plotflächen sind sowohl auf Abraumsanden des Tertiärs als auch Quartärs angelegt worden. In jeweils eine Subvariante ist RSM 7.2.1, in die andere eine autochthone Grasmischung eingesät worden. Diese Experimente wurden nach 6 Monaten beendet, die Bestimmung aller Parameter erfolgte in gleicher Weise wie bei den Gewächshausversuchen. Auf Basis aller Versuchsreihen konnten die besten Kompostqualitäten und ihre optimalen Herstellungsvarianten ermittelt werden. Eine weitere Aufgabe war es zu untersuchen, wie im Vergleich zur Verbrennung von Holzmasse die CO2-Emission in die Atmosphäre durch Holzkompostierung verringert werden kann. Hierzu wurde während der verschiedenen Kompostierungsvarianten die CO2-Freisetzung gemessen. Im Vergleich dazu ist jeweils die gleiche Masse an Holzsubstanz verbrannt worden. Die Ergebnisse zeigten, dass im Vergleich zu der thermischen Verwertung von Holsubstanz die CO2-Emission bis zu 50 % verringert werden kann. Dem Boden kann darüber hinaus energiereiche organische Substanz zugeführt werden, die eine Entwicklung der Bodenorganismen ermöglicht. Ein weiteres Experiment zielte darauf ab, die Stabilität der Holzkomposte zu bestimmen. Darüber hinaus sollte untersucht werden, ob durch die Zufuhr von pyrogenem Kohlenstoff eine Vergrößerung der Stabilität zu erreichen ist. Diese Untersuchungen wurden mit Hilfe der Thermogravimetrie vorgenommen. Alle wichtigen Kompostierungsvarianten sind sowohl mit verschiedenen Zusatzmengen als auch ohne Zusatz von pyrogenem Kohlenstoff vermessen worden. Als Vergleichssubstanz diente der Oberboden eines Niedermoorgleys, der naturgemäß einen relativ hohen Anteil an organischer Substanz aufweist. Die Ergebnisse zeigten, dass im Bereich niedriger Temperaturen die Wasserbindung im Naturboden fester ist. In der Fraktion der oxidierbaren organischen Substanz, im mittleren Temperaturbereich gemessen, ist die natürliche Bodensubstanz ebenfalls stabiler, was auf eine intensivere Bindung zwischen den organischen und anorganischen Bestandteilen, also auf stabilere organisch-mineralische Komplexe, schlussfolgern lässt. Im Bereich höherer Temperaturen (T> 550° C) waren im Naturboden keine nennenswerten organischen Bestandteile mehr nachweisbar. Hingegen wiesen die Kompostvarianten einen hohen Anteil stabiler Fraktionen, vor allem aromatische Verbindungen, auf. Diese Aussagen erscheinen vor allem für die praktische Anwendung der Holzkomposte in Hinblick auf ihre Langzeitwirkung bedeutsam. Der Zusatz von pyrogenem Kohlenstoff zeigte keine zusätzliche Stabilisierungswirkung.