TY - THES A1 - Bathke, Hannes T1 - An investigation of complex deformation patterns detected by using InSAR at Llaima and Tendürek volcanoes T1 - Eine Untersuchung von komplexen Erdoberflächenverformungen gemessen mit InSAR, an den Vulkanen Llaima und Tendürek N2 - Surface displacement at volcanic edifices is related to subsurface processes associated with magma movements, fluid transfers within the volcano edifice and gravity-driven deformation processes. Understanding of associated ground displacements is of importance for assessment of volcanic hazards. For example, volcanic unrest is often preceded by surface uplift, caused by magma intrusion and followed by subsidence, after the withdrawal of magma. Continuous monitoring of the surface displacement at volcanoes therefore might allow the forecasting of upcoming eruptions to some extent. In geophysics, the measured surface displacements allow the parameters of possible deformation sources to be estimated through analytical or numerical modeling. This is one way to improve the understanding of subsurface processes acting at volcanoes. Although the monitoring of volcanoes has significantly improved in the last decades (in terms of technical advancements and number of monitored volcanoes), the forecasting of volcanic eruptions remains puzzling. In this work I contribute towards the understanding of the subsurface processes at volcanoes and thus to the improvement of volcano eruption forecasting. I have investigated the displacement field of Llaima volcano in Chile and of Tendürek volcano in East Turkey by using synthetic aperture radar interferometry (InSAR). Through modeling of the deformation sources with the extracted displacement data, it was possible to gain insights into potential subsurface processes occurring at these two volcanoes that had been barely studied before. The two volcanoes, although of very different origin, composition and geometry, both show a complexity of interacting deformation sources. At Llaima volcano, the InSAR technique was difficult to apply, due to the large decorrelation of the radar signal between the acquisition of images. I developed a model-based unwrapping scheme, which allows the production of reliable displacement maps at the volcano that I used for deformation source modeling. The modeling results show significant differences in pre- and post-eruptive magmatic deformation source parameters. Therefore, I conjecture that two magma chambers exist below Llaima volcano: a post-eruptive deep one and a shallow one possibly due to the pre-eruptive ascent of magma. Similar reservoir depths at Llaima have been confirmed by independent petrologic studies. These reservoirs are interpreted to be temporally coupled. At Tendürek volcano I have found long-term subsidence of the volcanic edifice, which can be described by a large, magmatic, sill-like source that is subject to cooling contraction. The displacement data in conjunction with high-resolution optical images, however, reveal arcuate fractures at the eastern and western flank of the volcano. These are most likely the surface expressions of concentric ring-faults around the volcanic edifice that show low magnitudes of slip over a long time. This might be an alternative mechanism for the development of large caldera structures, which are so far assumed to be generated during large catastrophic collapse events. To investigate the potential subsurface geometry and relation of the two proposed interacting sources at Tendürek, a sill-like magmatic source and ring-faults, I have performed a more sophisticated numerical modeling approach. The optimum source geometries show, that the size of the sill-like source was overestimated in the simple models and that it is difficult to determine the dip angle of the ring-faults with surface displacement data only. However, considering physical and geological criteria a combination of outward-dipping reverse faults in the west and inward-dipping normal faults in the east seem to be the most likely. Consequently, the underground structure at the Tendürek volcano consists of a small, sill-like, contracting, magmatic source below the western summit crater that causes a trapdoor-like faulting along the ring-faults around the volcanic edifice. Therefore, the magmatic source and the ring-faults are also interpreted to be temporally coupled. In addition, a method for data reduction has been improved. The modeling of subsurface deformation sources requires only a relatively small number of well distributed InSAR observations at the earth’s surface. Satellite radar images, however, consist of several millions of these observations. Therefore, the large amount of data needs to be reduced by several orders of magnitude for source modeling, to save computation time and increase model flexibility. I have introduced a model-based subsampling approach in particular for heterogeneously-distributed observations. It allows a fast calculation of the data error variance-covariance matrix, also supports the modeling of time dependent displacement data and is, therefore, an alternative to existing methods. N2 - Oberflächenverschiebungen an Vulkanen können einerseits durch unterirdische Magmen- oder Fluidbewegungen oder andererseits durch Gravitation verursacht werden. So sind insbesondere vor Eruptionen oft Aufwölbungen an Vulkanen zu beobachten, verursacht durch Magmenintrusion in die Erdkruste. Nach Eruptionen hingegen sinkt das Vulkangebäude aufgrund von Magmenextrusion wieder. Kontinuierliche Messungen an Vulkanen ermöglichen es, Eruptionen teilweise bis auf wenige Tage vorherzusagen. Die gemessenen Oberflächenverschiebungen können in analytischen oder numerischen Modellierungen genutzt werden, um Parameter eines möglichen Quellprozesses abzuschätzen. Auf diese Art und Weise kann das Verständnis über die unterirdischen Prozesse, die an Vulkanen stattfinden, verbessert werden. Obwohl es in den letzten Jahrzehnten eine enorme Entwicklung und Verbesserung der Überwachung von Vulkanen gab, sind viele Vorhersagen sehr vage und ungenau. Mit dieser Arbeit möchte ich einen Beitrag zum Verständnis von unterirdischen Prozessen an Vulkanen und auf lange Sicht gesehen, zur Vorhersage von Eruptionen leisten. Ich habe die Vulkane, Llaima in Chile und Tendürek im Osten der Türkei, mit Hilfe der Interferometrie von Radardaten (InSAR) untersucht. Die somit gemessenen Verschiebungen an der Erdoberfläche ermöglichen es, durch Modellierung der möglichen Deformationsquellen, Informationen über die Untergrundstrukturen dieser beiden bisher kaum erforschten Vulkane zu bekommen. Obwohl unterschiedlich in Aufbau, Gesteinszusammensetzung und Entstehung, zeigen beide Vulkane Anzeichen dafür, dass jeweils mehrere interagierende Deformationsquellen im Untergrund existieren. Am Vulkan Llaima war es schwierig, aufgrund der starken Dekorrelation des Radarsignals zwischen den Satellitenaufnahmen, die InSAR Methode anzuwenden. Ich entwickelte eine Methode um die doppeldeutigen relativen Phasenwerte der Interferogramme modellbasiert in eindeutige relative Phasenwerte umzurechnen. Die damit erzeugten Oberflächenverschiebungskarten am Vulkan eigneten sich nun für eine anschließende Modellierung der Deformationsquelle. Die Modellierungsergebnisse zeigen signifikante Unterschiede zwischen den Parametern der präeruptiven- und posteruptiven Deformationsquellen. Demzufolge könnten zwei unterschiedliche, interagierende Magmenkammern unter Llaima existieren, eine tiefe, posteruptiv aktive Kammer und eine flache, durch den Aufstieg von Magma präeruptiv aktive Kammer. Am Vulkan Tendürek ist eine langfristige, kontinuierliche Senkung des Vulkangebäudes zu beobachten, die mit einem großen, aufgrund von Kühlung sich kontrahierenden, magmatischen Sill, erklärbar ist. Unter Hinzunahme von hochauflösenden, optischen Daten jedoch, sind bei genauerer Untersuchung bogenförmige Strukturen an der Erdoberfläche sichtbar. Diese sind Anzeichen dafür, dass Verwerfungen existieren, die das gesamte Vulkangebäude in einem elliptischen Ring umgeben. Dabei ist zu beobachten, dass die Ringstörungen über Jahrtausende, möglicherweise sogar kontinuierlich, geringe Magnituden von Versatz aufweisen. Bei langer, kontinuierlicher Aktivität über mehrere zehntausende von Jahren, könnte dies ein weiterer Mechanismus zur Entstehung von Calderastrukturen an Vulkanen darstellen, der jedoch sehr langsam verläuft. Im Gegensatz dazu ist die heutige weit verbreitete Auffassung, dass Calderen als Folge katastrophaler Einstürze von Vulkangebäuden entstehen. Um zu untersuchen welche Geometrie die vorgeschlagenen Strukturen Sill und Ringstörungen an Tendürek im Untergund haben könnten, vollführte ich eine weitaus komplexere numerische Modellierung. Diese zeigt, dass die Größe des Sills ohne Berücksichtigung der Ringstörung um ein Vielfaches überschätzt ist. Die Orientierung und Geometrie der Ringstörungen ist jedoch nicht eindeutig nur mit Oberflächenverschiebungsdaten auflösbar. Unter der Berücksichtigung von geologischen und physikalischen Gesichtspunkten sind nach Außen einfallende Aufschiebungen im Westen und nach Innen einfallende Abschiebungen im Osten die plausibelste Erklärung. Außerdem habe ich eine Methode zur Datenreduzierung entwickelt. Abhängig vom zu untersuchenden Prozess sind für die Modellierung von unterirdischen Deformationsquellen verhältnismäßig wenige gut verteilte Messpunkte an der Erdoberfläche ausreichend. Satelliten gestützte Radaraufnahmen haben jedoch oft mehrere Millionen dieser Punkte. Deshalb müssen diese riesigen Datensätze auf eine Art und Weise reduziert werden, dass keine oder nur möglichst wenige Informationen verloren gehen. Für diesen Zweck habe ich, ausgehend von einem existierenden Algorithmus, eine modellbasierte Methode zur Reduzierung von besonders heterogen verteilten Oberflächendaten entwickelt. Diese Methode ist besonders gut auf Zeitreihendatensätze anwendbar und stellt somit eine Alternative zu existierenden Algorithmen dar. KW - InSAR KW - Deformationsquellenmodellierung KW - Llaima Vulkan KW - Tendürek Vulkan KW - Ringstörungen KW - InSAR KW - deformation source modeling KW - Llaima volcano KW - Tendürek volcano KW - ring-fault Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70522 ER - TY - THES A1 - Bamberg, Marlene T1 - Planetary mapping tools applied to floor-fractured craters on Mars T1 - Planetare Analysewerkzeuge am Anwendungsgebiet von Kratern mit zerbrochenen Boeden auf dem Mars N2 - Planetary research is often user-based and requires considerable skill, time, and effort. Unfortunately, self-defined boundary conditions, definitions, and rules are often not documented or not easy to comprehend due to the complexity of research. This makes a comparison to other studies, or an extension of the already existing research, complicated. Comparisons are often distorted, because results rely on different, not well defined, or even unknown boundary conditions. The purpose of this research is to develop a standardized analysis method for planetary surfaces, which is adaptable to several research topics. The method provides a consistent quality of results. This also includes achieving reliable and comparable results and reducing the time and effort of conducting such studies. A standardized analysis method is provided by automated analysis tools that focus on statistical parameters. Specific key parameters and boundary conditions are defined for the tool application. The analysis relies on a database in which all key parameters are stored. These databases can be easily updated and adapted to various research questions. This increases the flexibility, reproducibility, and comparability of the research. However, the quality of the database and reliability of definitions directly influence the results. To ensure a high quality of results, the rules and definitions need to be well defined and based on previously conducted case studies. The tools then produce parameters, which are obtained by defined geostatistical techniques (measurements, calculations, classifications). The idea of an automated statistical analysis is tested to proof benefits but also potential problems of this method. In this study, I adapt automated tools for floor-fractured craters (FFCs) on Mars. These impact craters show a variety of surface features, occurring in different Martian environments, and having different fracturing origins. They provide a complex morphological and geological field of application. 433 FFCs are classified by the analysis tools due to their fracturing process. Spatial data, environmental context, and crater interior data are analyzed to distinguish between the processes involved in floor fracturing. Related geologic processes, such as glacial and fluvial activity, are too similar to be separately classified by the automated tools. Glacial and fluvial fracturing processes are merged together for the classification. The automated tools provide probability values for each origin model. To guarantee the quality and reliability of the results, classification tools need to achieve an origin probability above 50 %. This analysis method shows that 15 % of the FFCs are fractured by intrusive volcanism, 20 % by tectonic activity, and 43 % by water & ice related processes. In total, 75 % of the FFCs are classified to an origin type. This can be explained by a combination of origin models, superposition or erosion of key parameters, or an unknown fracturing model. Those features have to be manually analyzed in detail. Another possibility would be the improvement of key parameters and rules for the classification. This research shows that it is possible to conduct an automated statistical analysis of morphologic and geologic features based on analysis tools. Analysis tools provide additional information to the user and are therefore considered assistance systems. N2 - Planetenforschung umfasst oft zeitintensive Projekte, bei denen Expertise und Erfahrung eine wesentliche Rolle spielen. Auf Grund äusserst komplexer und sich selten wiederholender Forschungsfragen sind Annahmen, Definitionen und Regeln zur Lösung dieser Fragen nicht leicht nachvollziehbar oder aber nicht eindeutig dokumentiert. Ein Vergleich der Ergebnisse unterschiedlicher Forscher zum selben Thema oder eine Erweiterung der Forschungsfrage macht dies somit nur schwer möglich. Vergleiche liefern oftmals verzerrte Ergebnisse, da die Ausgangslage und Randbedingungen unterschiedlich definiert worden sind. Das Ziel dieser Arbeit ist es eine Standardmethode zur Oberflächenanalyse zu entwickeln, die auf zahlreiche Untersuchungsfragen angewandt werden kann. Eine gleichbleibende Qualität der Ergebnisse muss durch diese Methode gewährleistet sein. Ein weiteres Ziel ist es, dass diese Methode ohne Vorwissen und Expertise angewandt werden kann und die Ergebnisse in kurzer Zeit vorliegen. Ausserdem müssen die Ergebnisse vergleichbar und nachvollziehbar sein. Automatisch operierende Analysewerkzeuge können die zahlreichen Anforderungen erfüllen und als Standardmethode dienen. Statistische Ergebnisse werden durch diese Methode erzielt. Die Werkzeuge basieren auf vordefinierten, geowissenschaftlichen Techniken und umfassen Messungen, Berechnungen und Klassifikationen der zu untersuchenden Oberflächenstrukturen. Für die Anwendung dieser Werkzeuge müssen Schlüsselstrukturen und Randbedingungen definiert werden. Des Weiteren benötigen die Werkzeuge eine Datenbank, in der alle Oberflächenstrukturen, aber auch Informationen zu den Randbedingungen gespeichert sind. Es ist mit geringem Aufwand möglich, Datenbanken zu aktualisieren und sie auf verschiedenste Fragestellungen zu adaptieren. Diese Tatsache steigert die Flexibilität, Reproduzierbarkeit und auch Vergleichbarkeit der Untersuchung. Die vordefinierten Randbedingungen und die Qualität der Datenbank haben jedoch auch direkten Einfluss auf die Qualität der Ergebnisse. Um eine gleichbleibend hohe Qualität der Untersuchung zu gewährleisten muss sichergestellt werden, dass alle vordefinierten Bedingungen eindeutig sind und auf vorheriger Forschung basieren. Die automatisch operierenden Analysewerkzeuge müssen als mögliche Standardmethode getestet werden. Hierbei geht es darum Vorteile, aber auch Nachteile zu identifizieren und zu bewerten. In dieser Arbeit werden die Analysewerkzeuge auf einen bestimmten Einschlagskratertyp auf dem Mars angewandt. Krater mit zerbrochenen Kraterböden (Floor-Fractured Craters) sind in verschiedensten Regionen auf dem Mars zu finden, sie zeigen zahlreiche Oberflächenstrukturen und wurden durch unterschiedliche Prozesse geformt. All diese Fakten machen diesen Kratertyp zu einem interessanten und im geologischen und morphologischen Sinne sehr komplexen Anwendungsgebiet. 433 Krater sind durch die Werkzeuge analysiert und je nach Entstehungsprozess klassifiziert worden. Für diese Analyse sind Position der Krater, Art des Umfeldes und Strukturen im Kraterinneren ausschlaggebend. Die kombinierten Informationen geben somit Auskunft über die Prozesse, welche zum Zerbrechen des Kraterbodens geführt haben. Die entwickelten Analysewerkzeuge können geologische Prozesse, die sehr ähnlich zueinander sind, von einander abhängig sind und zusätzlich auch dieselben Oberflächenstrukturen formen, nicht eindeutig unterscheiden. Aus diesem Grund sind fluviale und glaziale Entstehungsprozesse für den untersuchten Kratertyp zusammengefasst. Die Analysewerkzeuge liefern Wahrscheinlichkeitswerte für drei mögliche Entstehungsarten. Um die Qualität der Ergebnisse zu verbessern muss eine Wahrscheinlichkeit über 50 % erreicht werden. Die Werkzeuge zeigen, dass 15 % der Krater durch Vulkanismus, 20 % durch Tektonik und 43 % durch Wasser- und Eis-bedingte Prozesse gebildet wurden. Insgesamt kann für 75 % des untersuchten Kratertyps ein potentieller Entstehungsprozess zugeordnet werden. Für 25 % der Krater ist eine Klassifizierung nicht möglich. Dies kann durch eine Kombination von geologischen Prozessen, einer Überprägung von wichtigen Schlüsselstrukturen, oder eines bisher nicht berücksichtigten Prozesses erklärt werden. Zusammenfassend ist zu sagen, dass es möglich ist planetare Oberflächenstrukturen quantitativ durch automatisch operierende Analysewerkzeuge zu erfassen und hinsichtlich einer definierten Fragestellung zu klassifizieren. Zusätzliche Informationen können durch die entwickelten Werkzeuge erhalten werden, daher sind sie als Assistenzsystem zu betrachten. KW - Datenbank KW - Automatisierung KW - Klassifizierung KW - geologische Prozesse KW - Geomorphologie KW - database KW - automation KW - classification KW - geological processes KW - geomorphology Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72104 ER - TY - THES A1 - Balzer, Arnim T1 - Crab flare observations with H.E.S.S. phase II T1 - Crab Flare Observations with H.E.S.S. Phase II N2 - The H.E.S.S. array is a third generation Imaging Atmospheric Cherenkov Telescope (IACT) array. It is located in the Khomas Highland in Namibia, and measures very high energy (VHE) gamma-rays. In Phase I, the array started data taking in 2004 with its four identical 13 m telescopes. Since then, H.E.S.S. has emerged as the most successful IACT experiment to date. Among the almost 150 sources of VHE gamma-ray radiation found so far, even the oldest detection, the Crab Nebula, keeps surprising the scientific community with unexplained phenomena such as the recently discovered very energetic flares of high energy gamma-ray radiation. During its most recent flare, which was detected by the Fermi satellite in March 2013, the Crab Nebula was simultaneously observed with the H.E.S.S. array for six nights. The results of the observations will be discussed in detail during the course of this work. During the nights of the flare, the new 24 m × 32 m H.E.S.S. II telescope was still being commissioned, but participated in the data taking for one night. To be able to reconstruct and analyze the data of the H.E.S.S. Phase II array, the algorithms and software used by the H.E.S.S. Phase I array had to be adapted. The most prominent advanced shower reconstruction technique developed by de Naurois and Rolland, the template-based model analysis, compares real shower images taken by the Cherenkov telescope cameras with shower templates obtained using a semi-analytical model. To find the best fitting image, and, therefore, the relevant parameters that describe the air shower best, a pixel-wise log-likelihood fit is done. The adaptation of this advanced shower reconstruction technique to the heterogeneous H.E.S.S. Phase II array for stereo events (i.e. air showers seen by at least two telescopes of any kind), its performance using MonteCarlo simulations as well as its application to real data will be described. N2 - Das H.E.S.S. Experiment misst sehr hochenergetische Gammastrahlung im Khomas Hochland von Namibia. Es ist ein sogenanntes abbildendes atmosphärisches Cherenkov-Teleskopsystem welches in der 1. Phase, die im Jahr 2004 mit der Datennahme begann, aus vier identischen 13 m Spiegelteleskopen bestand. Seitdem hat sich H.E.S.S. als das erfolgreichstes Experiment in der bodengebundenen Gammastrahlungsastronomie etabliert. Selbst die älteste der mittlerweile fast 150 entdeckten Quellen von sehr hochenergetischer Gammastrahlung, der Krebsnebel, fasziniert immernoch Wissenschaftler mit neuen bisher unbekannten und unerwarteten Phänomenen. Ein Beispiel dafür sind die vor kurzem entdeckten sehr energiereichen Ausbrüche von hochenergetischer Gammastrahlung. Bei dem letzten deratigen Ausbruch des Krebsnebels im März 2013 hat das H.E.S.S. Experiment für sechs Nächte simultan mit dem Fermi-Satelliten, welcher den Ausbruch entdeckte, Daten genommen. Die Analyse der Daten, deren Ergebnis und deren Interpretation werden im Detail in dieser Arbeit vorgestellt. Während dieser Beobachtungen befand sich ein neues 24 m × 32 m großes Spiegelteleskop, das H.E.S.S. II- Teleskop, noch in seiner Inbetriebnahme, trotzdem hat es für eine dieser sechs Nächte an der Datennahme des gesamten Teleskopsystems teilgenommen. Um die Daten rekonstruieren und analysieren zu können, mussten die für die 1. Phase des Experiments entwickelten Algorithmen und die Software des H.E.S.S.- Experiments angepasst werden. Die fortschrittlichste Schauerrekonstruktionsmethode, welche von de Naurois und Rolland entwickelt wurde, basiert auf dem Vergleich von echten Schauerbildern, die mit Hilfe der Cherenkov-Kameras der einzelnen Teleskope aufgenommen wurden, mit Schauerschablonen die mit Hilfe eines semianalytischen Modells erzeugt wurden. Das am besten passende Bild und damit auch alle relevanten Schauerparameter, wird mit Hilfe einer pixelweisen Loglikelihood-Anpassung ermittelt. Die nötigen Änderungen um Multiteleskopereignisse, welche vom heterogenen H.E.S.S. Phase II Detektor gemessen wurden, mit Hilfe dieser fortschrittlichen Schauerrekonstruktionsmethode analysieren zu können, sowie die resultierenden Ergebnisse von MonteCarlo-Simulationen, als auch die Anwendung auf echte Daten, werden im Rahmen dieser Arbeit präsentiert. KW - Gammastrahlungsastronomie KW - Rekonstruktionsmethoden KW - Datenanalyse KW - Krebsnebel KW - gamma-ray astronomy KW - reconstruction methods KW - data analysis KW - Crab Nebula Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72545 ER - TY - THES A1 - Bacskai-Atkari, Julia T1 - The syntax of comparative constructions : operators, ellipsis phenomena and functional left peripheries T1 - Die Syntax von Vergleichskonstruktionen : Operatoren, Ellipsenphänomene und funktionale linke Peripherien N2 - Adopting a minimalist framework, the dissertation provides an analysis for the syntactic structure of comparatives, with special attention paid to the derivation of the subclause. The proposed account explains how the comparative subclause is connected to the matrix clause, how the subclause is formed in the syntax and what additional processes contribute to its final structure. In addition, it casts light upon these problems in cross-linguistic terms and provides a model that allows for synchronic and diachronic differences. This also enables one to give a more adequate explanation for the phenomena found in English comparatives since the properties of English structures can then be linked to general settings of the language and hence need no longer be considered as idiosyncratic features of the grammar of English. First, the dissertation provides a unified analysis of degree expressions, relating the structure of comparatives to that of other degrees. It is shown that gradable adjectives are located within a degree phrase (DegP), which in turn projects a quantifier phrase (QP) and that these two functional layers are always present, irrespectively of whether there is a phonologically visible element in these layers. Second, the dissertation presents a novel analysis of Comparative Deletion by reducing it to an overtness constraint holding on operators: in this way, it is reduced to morphological differences and cross-linguistic variation is not conditioned by way of postulating an arbitrary parameter. Cross-linguistic differences are ultimately dependent on whether a language has overt operators equipped with the relevant – [+compr] and [+rel] – features. Third, the dissertation provides an adequate explanation for the phenomenon of Attributive Comparative Deletion, as attested in English, by way of relating it to the regular mechanism of Comparative Deletion. I assume that Attributive Comparative Deletion is not a universal phenomenon, and its presence in English can be conditioned by independent, more general rules, while the absence of such restrictions leads to its absence in other languages. Fourth, the dissertation accounts for certain phenomena related to diachronic changes, examining how the changes in the status of comparative operators led to changes in whether Comparative Deletion is attested in a given language: I argue that only operators without a lexical XP can be grammaticalised. The underlying mechanisms underlying are essentially general economy principles and hence the processes are not language-specific or exceptional. Fifth, the dissertation accounts for optional ellipsis processes that play a crucial role in the derivation of typical comparative subclauses. These processes are not directly related to the structure of degree expressions and hence the elimination of the quantified expression from the subclause; nevertheless, they are shown to be in interaction with the mechanisms underlying Comparative Deletion or the absence thereof. N2 - Unter Verwendung eines minimalistischen Frameworks wird in der Dissertation eine Analyse der syntaktischen Struktur von Vergleichskonstruktionen vorgestellt, mit besonderem Augenmerk auf der Ableitung des eingebetteten Satzes. Die vorgeschlagene Analyse erklärt, wie der komparative Nebensatz mit dem Matrixsatz verbunden ist, wie der Nebensatz in der Syntax gebildet wird und welche zusätzlichen Prozesse zu seiner endgültigen Struktur beitragen. Außerdem beleuchtet sie diese Probleme aus cross-linguistischer Sicht und bietet ein Modell, das synchrone und diachrone Unterschiede berücksichtigt. Dies ermöglicht auch eine adäquatere Erklärung der Phänomene in englischen Vergleichskonstruktionen, da die Eigenschaften der englischen Strukturen mit allgemeinen Eigenschaften der Sprache verknüpft werden und es daher nicht mehr nötig ist, sie als idiosynkratrische Merkmale der Grammatik der englischen Sprache zu behandeln. Die Dissertation bietet zum einen eine einheitliche Analyse von Gradphrasen, wobei die Struktur von Vergleichskonstruktionen mit der von anderen Graden verbunden wird. Es wird gezeigt, dass graduierbare Adjektive sich in einer Gradphrase (degree phrase, DegP) befinden, die wiederum eine Quantorenphrase (QP) projiziert, und dass diese beiden Funktionsschichten immer vorhanden sind, unabhängig davon, ob es ein phonologisch sichtbares Element in diesen Schichten gibt. Zweitens präsentiert die Dissertation eine neue Analyse von Komparativ-Tilgung (Comparative Deletion), die auf eine Overtheits-Bedingung für Operatoren reduziert wird: dadurch wird das Phänomen auf morphologische Unterschiede zurückgeführt, und cross-linguistische Variation wird nicht durch die Postulierung eines arbiträren Parameters begründet. Cross-linguistische Unterschiede sind letztlich davon abhängig, ob eine Sprache overte Operatoren mit den relevanten Merkmalen – [+ compr] und [+ rel] – hat. Drittens bietet die Dissertation eine adäquate Erklärung für das Phänomen der attributiven Komparativ-Tilgung (Attributive Comparative Deletion), wie man sie im Englischen findet, indem sie mit dem regulären Mechanismus der Komparativ-Tilgung in Zusammenhang gebracht wird. Ich gehe davon aus, dass attributive Komparativ-Tilgung kein universelles Phänomen ist, und dass ihr Vorhandensein im Englischen durch unabhängige, allgemeinere Regeln erfasst werden kann, während das Fehlen solcher Regeln zur Abwesenheit des Phänomens in anderen Sprachen führt. Viertens erklärt die Dissertation bestimmte Phänomene in Bezug auf diachronische Veränderungen und untersucht, wie Veränderungen im Status der Komparativoperatoren beeinflussen, ob Komparativ-Tilgung in einer Sprache vorkommt: Ich argumentiere dafür, dass nur Operatoren ohne eine lexikalische XP grammatikalisiert werden können. Die zugrunde liegenden Mechanismen sind im Wesentlichen allgemeine Prinzipien der Ökonomie, und damit sind die Prozesse nicht sprachspezifisch oder Ausnahmen. Fünftens bietet die Dissertation eine Erklärung für optionale Ellipsenprozesse, die bei der Ableitung von typischen komparativen Nebensätzen eine entscheidende Rolle spielen. Diese Prozesse haben nicht direkt mit der Struktur von Gradphrasen und somit mit der Entfernung der quantifizierten Phrase aus dem Nebensatz zu tun; aber es wird gezeigt, dass sie mit den Mechanismen, die Komparativ-Tilgung oder deren Abwesenheit zugrunde liegen, interagieren. KW - komparative Nebensätze KW - Komparativ-Tilgung KW - Gradphrasen KW - linke Peripherie KW - Overtheits-Bedingung KW - comparative subclauses KW - Comparative Deletion KW - degree phrases KW - left periphery KW - overtness requirement Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71255 SN - 978-3-86956-301-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Arnold, Anne T1 - Modeling photosynthesis and related metabolic processes : from detailed examination to consideration of the metabolic context T1 - Modellierung von Photosynthese und damit zusammenhängende metabolische Prozesse : von detaillierter Betrachtung hin zur Erörterung im metabolischen Kontext N2 - Mathematical modeling of biological systems is a powerful tool to systematically investigate the functions of biological processes and their relationship with the environment. To obtain accurate and biologically interpretable predictions, a modeling framework has to be devised whose assumptions best approximate the examined scenario and which copes with the trade-off of complexity of the underlying mathematical description: with attention to detail or high coverage. Correspondingly, the system can be examined in detail on a smaller scale or in a simplified manner on a larger scale. In this thesis, the role of photosynthesis and its related biochemical processes in the context of plant metabolism was dissected by employing modeling approaches ranging from kinetic to stoichiometric models. The Calvin-Benson cycle, as primary pathway of carbon fixation in C3 plants, is the initial step for producing starch and sucrose, necessary for plant growth. Based on an integrative analysis for model ranking applied on the largest compendium of (kinetic) models for the Calvin-Benson cycle, those suitable for development of metabolic engineering strategies were identified. Driven by the question why starch rather than sucrose is the predominant transitory carbon storage in higher plants, the metabolic costs for their synthesis were examined. The incorporation of the maintenance costs for the involved enzymes provided a model-based support for the preference of starch as transitory carbon storage, by only exploiting the stoichiometry of synthesis pathways. Many photosynthetic organisms have to cope with processes which compete with carbon fixation, such as photorespiration whose impact on plant metabolism is still controversial. A systematic model-oriented review provided a detailed assessment for the role of this pathway in inhibiting the rate of carbon fixation, bridging carbon and nitrogen metabolism, shaping the C1 metabolism, and influencing redox signal transduction. The demand of understanding photosynthesis in its metabolic context calls for the examination of the related processes of the primary carbon metabolism. To this end, the Arabidopsis core model was assembled via a bottom-up approach. This large-scale model can be used to simulate photoautotrophic biomass production, as an indicator for plant growth, under so-called optimal, carbon-limiting and nitrogen-limiting growth conditions. Finally, the introduced model was employed to investigate the effects of the environment, in particular, nitrogen, carbon and energy sources, on the metabolic behavior. This resulted in a purely stoichiometry-based explanation for the experimental evidence for preferred simultaneous acquisition of nitrogen in both forms, as nitrate and ammonium, for optimal growth in various plant species. The findings presented in this thesis provide new insights into plant system's behavior, further support existing opinions for which mounting experimental evidences arise, and posit novel hypotheses for further directed large-scale experiments. N2 - Mathematische Modellierung biologischer Systeme eröffnet die Möglichkeit systematisch die Funktionsweise biologischer Prozesse und ihrer Wechselwirkungen mit der Umgebung zu untersuchen. Um präzise und biologisch relevante Vorhersagen treffen zu können, muss eine Modellierungsstrategie konzipiert werden, deren Annahmen das untersuchte Szenario bestmöglichst widerspiegelt und die dem Trade-off der Komplexität der zugrunde liegenden mathematischen Beschreibung gerecht wird: Detailtreue gegenüber Größe. Dementsprechend kann das System detailliert, in kleinerem Umfang oder in vereinfachter Darstellung im größeren Maßstab untersucht werden. In dieser Arbeit wird mittels verschiedener Modellierungsansätze, wie kinetischen und stöchiometrischen Modellen, die Rolle der Photosynthese und damit zusammenhängender biochemischer Prozesse im Rahmen des Pflanzenstoffwechsels analysiert. Der Calvin-Benson-Zyklus, als primärer Stoffwechselweg der Kohlenstofffixierung in C3-Pflanzen, ist der erste Schritt der Stärke- und Saccharoseproduktion, welche maßgeblich für das Wachstum von Pflanzen sind. Basierend auf einer integrativen Analyse zur Modellklassifizierung wurden aus der größten bekannten Sammlung von (kinetischen) Modellen des Calvin-Benson-Zyklus diejenigen ermittelt, die für die Entwicklung von Metabolic-Engineering-Strategien geeignet sind. Angeregt von der Fragestellung warum Kohlenstoff transitorisch vorwiegend in Form von Stärke anstatt Saccharose gespeichert wird, wurden die metabolischen Kosten beider Syntheseprozesse genauer betrachtet. Die Einbeziehung der Bereitstellungskosten der beteiligten Enzyme stützt die Tatsache, dass bevorzugt Stärke als temporärer Kohlenstoffspeicher dient. Die entprechende Untersuchung erfolgte einzig auf Grundlage der Stöchiometrie der Synthesewege. In vielen photosynthetisch-aktiven Organismen findet zudem Photorespiration statt, die der Kohlenstofffixierung entgegenwirkt. Die genaue Bedeutung der Photorespiration für den Pflanzenmetabolismus ist noch umstritten. Eine detaillierte Einschätzung der Rolle dieses Stoffwechselweges bezüglich der Inhibierung der Kohlenstofffixierungsrate, der Verknüpfung von Kohlenstoff- und Stickstoffmetabolismus, der Ausprägung des C1-Stoffwechsels sowie die Einflussnahme auf die Signaltransduktion wurde in einer modell-basierten, kritischen Analyse vorgenommen. Um die Photosynthese in ihrem metabolischen Kontext verstehen zu können, ist die Betrachtung der angrenzenden Prozesse des primären Kohlenstoffmetabolismus unverzichtbar. Hierzu wurde in einem Bottom-up Ansatz das Arabidopsis core Modell entworfen, mittels dessen die Biomasseproduktion, als Indikator für Pflanzenwachtum, unter photoautotrophen Bedingungen simuliert werden kann. Neben sogenannten optimalen Wachstumsbedingungen kann dieses großangelegte Modell auch kohlenstoff- und stickstofflimitierende Umweltbedingungen simulieren. Abschließend wurde das vorgestellte Modell zur Untersuchung von Umwelteinflüssen auf das Stoffwechselverhalten herangezogen, im speziellen verschiedene Stickstoff-, Kohlenstoff- und Energiequellen. Diese auschließlich auf der Stöchiometrie basierende Analyse bietet eine Erklärung für die bevorzugte, gleichzeitige Aufnahme von Nitrat und Ammonium, wie sie in verschiedenen Spezies für optimales Wachstum experimentell beobachtet wurde. Die Resultate dieser Arbeit liefern neue Einsichten in das Verhalten von pflanzlichen Systemen, stützen existierende Ansichten, für die zunehmend experimentelle Hinweise vorhanden sind, und postulieren neue Hypothesen für weiterführende großangelegte Experimente. KW - stöchiometrische Modellierung KW - kinetische Modellierung KW - metabolische Netzwerke KW - metabolische Kosten KW - Photosynthese KW - stoichiometric modeling KW - kinetic modeling KW - metabolic networks KW - metabolic costs KW - photosynthesis Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72277 ER - TY - THES A1 - Andree, Kai T1 - Horizontale Fusionen bei räumlichem Wettbewerb T1 - Horizontal mergers with spatial competition BT - eine modelltheoretische Analyse intra- und interregionaler Fusionen BT - a theoretical analysis of inter- and intraregional mergers T2 - Potsdamer Schriften zur Raumwirtschaft N2 - Fusionen stellen einen zentralen Baustein der Industrieökonomik dar. In diesem Buch wird der Frage nachgegangen, welchen Einfluss die räumliche Dimension auf eine Fusion ausübt. Dabei wird ein Grundmodell entwickelt und über dieses hinaus eine Vielzahl Erweiterungen präsentiert. Der Leser erhält somit die Möglichkeit ein tiefes Verständnis für Fusionen bei räumlichem Wettbewerb zu erlangen. N2 - The analysis of mergers ia a central element of industrial organization. In this book the influence of spatial competition on mergers is analyzed. A basic model is developed and enhanced to take into account different economic environments. The reader gets the possibility to understand the effects of mergers with spatial competition. T3 - Potsdamer Schriften zur Raumwirtschaft - 6 KW - Fusionen KW - räumlicher Wettbewerb KW - asymmetrische Nachfrage KW - Mergers KW - spatial competition KW - asymmetric demand Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69209 SN - 978-3-86956-279-7 SN - 2190-8702 SN - 2190-8710 IS - 6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Albrecht, Steve T1 - Generation, recombination and extraction of charges in polymer T1 - Generierung, Rekombination und Extraktion von Ladungen in Polymer BT - fullerene bulk heterojunction solar cells BT - Fulleren Mischsolarzellen N2 - A dramatic efficiency improvement of bulk heterojunction solar cells based on electron-donating conjugated polymers in combination with soluble fullerene derivatives has been achieved over the past years. Certified and reported power conversion efficiencies now reach over 9% for single junctions and exceed the 10% benchmark for tandem solar cells. This trend brightens the vision of organic photovoltaics becoming competitive with inorganic solar cells including the realization of low-cost and large-area organic photovoltaics. For the best performing organic materials systems, the yield of charge generation can be very efficient. However, a detailed understanding of the free charge carrier generation mechanisms at the donor acceptor interface and the energy loss associated with it needs to be established. Moreover, organic solar cells are limited by the competition between charge extraction and free charge recombination, accounting for further efficiency losses. A conclusive picture and the development of precise methodologies for investigating the fundamental processes in organic solar cells are crucial for future material design, efficiency optimization, and the implementation of organic solar cells into commercial products. In order to advance the development of organic photovoltaics, my thesis focuses on the comprehensive understanding of charge generation, recombination and extraction in organic bulk heterojunction solar cells summarized in 6 chapters on the cumulative basis of 7 individual publications. The general motivation guiding this work was the realization of an efficient hybrid inorganic/organic tandem solar cell with sub-cells made from amorphous hydrogenated silicon and organic bulk heterojunctions. To realize this project aim, the focus was directed to the low band-gap copolymer PCPDTBT and its derivatives, resulting in the examination of the charge carrier dynamics in PCPDTBT:PC70BM blends in relation to by the blend morphology. The phase separation in this blend can be controlled by the processing additive diiodooctane, enhancing domain purity and size. The quantitative investigation of the free charge formation was realized by utilizing and improving the time delayed collection field technique. Interestingly, a pronounced field dependence of the free carrier generation for all blends is found, with the field dependence being stronger without the additive. Also, the bimolecular recombination coefficient for both blends is rather high and increases with decreasing internal field which we suggest to be caused by a negative field dependence of mobility. The additive speeds up charge extraction which is rationalized by the threefold increase in mobility. By fluorine attachment within the electron deficient subunit of PCPDTBT, a new polymer F-PCPDTBT is designed. This new material is characterized by a stronger tendency to aggregate as compared to non-fluorinated PCPDTBT. Our measurements show that for F-PCPDTBT:PCBM blends the charge carrier generation becomes more efficient and the field-dependence of free charge carrier generation is weakened. The stronger tendency to aggregate induced by the fluorination also leads to increased polymer rich domains, accompanied in a threefold reduction in the non-geminate recombination coefficient at conditions of open circuit. The size of the polymer domains is nicely correlated to the field-dependence of charge generation and the Langevin reduction factor, which highlights the importance of the domain size and domain purity for efficient charge carrier generation. In total, fluorination of PCPDTBT causes the PCE to increase from 3.6 to 6.1% due to enhanced fill factor, short circuit current and open circuit voltage. Further optimization of the blend ratio, active layer thickness, and polymer molecular weight resulted in 6.6% efficiency for F-PCPDTBT:PC70BM solar cells. Interestingly, the double fluorinated version 2F-PCPDTBT exhibited poorer FF despite a further reduction of geminate and non-geminate recombination losses. To further analyze this finding, a new technique is developed that measures the effective extraction mobility under charge carrier densities and electrical fields comparable to solar cell operation conditions. This method involves the bias enhanced charge extraction technique. With the knowledge of the carrier density under different electrical field and illumination conditions, a conclusive picture of the changes in charge carrier dynamics leading to differences in the fill factor upon fluorination of PCPDTBT is attained. The more efficient charge generation and reduced recombination with fluorination is counterbalanced by a decreased extraction mobility. Thus, the highest fill factor of 60% and efficiency of 6.6% is reached for F-PCPDTBT blends, while 2F-PCPDTBT blends have only moderate fill factors of 54% caused by the lower effective extraction mobility, limiting the efficiency to 6.5%. To understand the details of the charge generation mechanism and the related losses, we evaluated the yield and field-dependence of free charge generation using time delayed collection field in combination with sensitive measurements of the external quantum efficiency and absorption coefficients for a variety of blends. Importantly, both the yield and field-dependence of free charge generation is found to be unaffected by excitation energy, including direct charge transfer excitation below the optical band gap. To access the non-detectable absorption at energies of the relaxed charge transfer emission, the absorption was reconstructed from the CT emission, induced via the recombination of thermalized charges in electroluminescence. For a variety of blends, the quantum yield at energies of charge transfer emission was identical to excitations with energies well above the optical band-gap. Thus, the generation proceeds via the split-up of the thermalized charge transfer states in working solar cells. Further measurements were conducted on blends with fine-tuned energy levels and similar blend morphologies by using different fullerene derivatives. A direct correlation between the efficiency of free carrier generation and the energy difference of the relaxed charge transfer state relative to the energy of the charge separated state is found. These findings open up new guidelines for future material design as new high efficiency materials require a minimum energetic offset between charge transfer and the charge separated state while keeping the HOMO level (and LUMO level) difference between donor and acceptor as small as possible. N2 - Die Effizienz von organischen Mischsolarzellen ist in den letzten Jahren durch die Entwicklung neuer halbleitender Materialen beträchtlich gestiegen. Die besten organischen Mischsolarzellen zeigen heute sehr effiziente Ladungsgeneration. Dennoch ist die genaue Funktionsweise der fundamentalen Ladungsgenerationsschritte nicht bis ins Detail verstanden. Zur weiteren Steigerung der Wirkungsgrade und für die kommerzielle Nutzung organischer Mischsolarzellen, sind ein übergreifendes Verständnis der Funktionsweise und die Entwicklung neuer Messmethoden unumgänglich. Die vorliegende Arbeit ist auf diese Fragestellung fokussiert: die Arbeit soll helfen, fundierte Kenntnisse der Ladungsträgererzeugung, der Rekombination und der Extraktion freier Ladungsträger in organischen Mischsolarzellen zu erlangen. Zuerst wurde der Fokus auf Mischsolarzellen mit dem Polymer PCPDTBT gelegt. Dieses Polymer durchmischt stark mit dem Fulleren-Derivat PCBM. Durch Verwendung eines Lösungsmitteladditives kann die Phasenentmischung und damit der Wirkungsgrad deutlich gesteigert werden. Die Generations- und Rekombinationsprozesse wurden mittels zeitverzögerter Sammelfeld-Methode untersucht. Dabei wurde zum ersten Mal eine signifikante Feldabhängigkeit der Ladungsträger-erzeugung entdeckt. Interessanterweise korreliert diese Feldabhängigkeit mit der Domänengröße also dem Grad der Entmischung. In größeren und reineren Polymerphasen ist die Feldabhängigkeit kleiner und die Extraktion verbessert, was zum höheren Wirkungsgrad führt. In einem weiteren Schritt wurde untersucht, wie sich die Fluorinierung des Polymers PCPDTBT auf das Bauteilverhalten auswirkt. Durch Fluorinierung des Polymer-Rückgrats von PCPDTBT wurden zum einen die Energieniveaus abgesenkt, ohne dass sich das Absorptionsverhalten geändert hat. Zum anderen wurde die Phasenentmischung beeinflusst. Mit Fluorinierung entstehen größere, reinere und kristallinere Polymerphasen. Dadurch wird die Generation der Ladungsträger effizienter und die Rekombination stärker unterdrückt. Eindeutige Korrelationen zwischen Phasengröße und Generationseffizienz konnten hierbei gefunden werden. Insgesamt steigt die Bauteileffizienz bei Verwendung von fluoriniertem PCPDTBT von 3.6 auf 6.1% bei gleicher Prozessierung. Durch weitere Optimierung konnte die Effizienz auf 6.6% für fluoriniertes PCPDTBT gesteigert werden. Eine di-Fluorinierung von PCPDTBT limitiert die Bauteileffizienz, speziell den Füll Faktor, trotz der Entstehung noch reinerer Polymerphasen. Eine genauere Analyse der Extraktionseffizienz mittels der genauen Bestimmung der Gleichgewichts-Ladungsträgerdichte für verschiedenen Beleuchtungs- und Feldsituationen zeigte, dass die Fluorinierung die Effizienz der Extraktion deutlich absenkt und dadurch bei di-Fluorinierung die Rekombinationsverluste im Bauteil trotz verlangsamter Rekombination ansteigen. Um weitere fundierte Kenntnisse der Ladungsgeneration zu gewinnen, wurde die Ladungsgeneration für verschiedene Gemische mit veränderten Energieniveaus in Abhängigkeit der Anregungsenergie untersucht. Dabei wurde die wichtige Kenntnis erlangt, dass die Photonenenergie, unabhängig von der Lage der Energieniveaus, keinen Einfluss auf die Effizienz der Generation hat und somit die Bildung freier Ladungsträger aus relaxierten Transferzuständen erfolgt. Dadurch ergeben sich neue Leitlinien für zukünftige Materialeigenschaften mit optimierten Wirkungsgraden. KW - organic solar cells KW - bulk heterojunction KW - charge carrier dynamics KW - charge generation KW - non geminate recombination KW - Generierung von Ladungsträgern KW - nicht geminale Rekombination KW - Extraktion KW - Polymer KW - Fulleren Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-72285 ER - TY - THES A1 - Ahmad, Nadeem T1 - People centered HMI’s for deaf and functionally illiterate users T1 - Menschen zentrierte Mensch-Maschine-Schnittstellen für Schwerhörige und ungeschulte Anwender N2 - The objective and motivation behind this research is to provide applications with easy-to-use interfaces to communities of deaf and functionally illiterate users, which enables them to work without any human assistance. Although recent years have witnessed technological advancements, the availability of technology does not ensure accessibility to information and communication technologies (ICT). Extensive use of text from menus to document contents means that deaf or functionally illiterate can not access services implemented on most computer software. Consequently, most existing computer applications pose an accessibility barrier to those who are unable to read fluently. Online technologies intended for such groups should be developed in continuous partnership with primary users and include a thorough investigation into their limitations, requirements and usability barriers. In this research, I investigated existing tools in voice, web and other multimedia technologies to identify learning gaps and explored ways to enhance the information literacy for deaf and functionally illiterate users. I worked on the development of user-centered interfaces to increase the capabilities of deaf and low literacy users by enhancing lexical resources and by evaluating several multimedia interfaces for them. The interface of the platform-independent Italian Sign Language (LIS) Dictionary has been developed to enhance the lexical resources for deaf users. The Sign Language Dictionary accepts Italian lemmas as input and provides their representation in the Italian Sign Language as output. The Sign Language dictionary has 3082 signs as set of Avatar animations in which each sign is linked to a corresponding Italian lemma. I integrated the LIS lexical resources with MultiWordNet (MWN) database to form the first LIS MultiWordNet(LMWN). LMWN contains information about lexical relations between words, semantic relations between lexical concepts (synsets), correspondences between Italian and sign language lexical concepts and semantic fields (domains). The approach enhances the deaf users’ understanding of written Italian language and shows that a relatively small set of lexicon can cover a significant portion of MWN. Integration of LIS signs with MWN made it useful tool for computational linguistics and natural language processing. The rule-based translation process from written Italian text to LIS has been transformed into service-oriented system. The translation process is composed of various modules including parser, semantic interpreter, generator, and spatial allocation planner. This translation procedure has been implemented in the Java Application Building Center (jABC), which is a framework for extreme model driven design (XMDD). The XMDD approach focuses on bringing software development closer to conceptual design, so that the functionality of a software solution could be understood by someone who is unfamiliar with programming concepts. The transformation addresses the heterogeneity challenge and enhances the re-usability of the system. For enhancing the e-participation of functionally illiterate users, two detailed studies were conducted in the Republic of Rwanda. In the first study, the traditional (textual) interface was compared with the virtual character-based interactive interface. The study helped to identify usability barriers and users evaluated these interfaces according to three fundamental areas of usability, i.e. effectiveness, efficiency and satisfaction. In another study, we developed four different interfaces to analyze the usability and effects of online assistance (consistent help) for functionally illiterate users and compared different help modes including textual, vocal and virtual character on the performance of semi-literate users. In our newly designed interfaces the instructions were automatically translated in Swahili language. All the interfaces were evaluated on the basis of task accomplishment, time consumption, System Usability Scale (SUS) rating and number of times the help was acquired. The results show that the performance of semi-literate users improved significantly when using the online assistance. The dissertation thus introduces a new development approach in which virtual characters are used as additional support for barely literate or naturally challenged users. Such components enhanced the application utility by offering a variety of services like translating contents in local language, providing additional vocal information, and performing automatic translation from text to sign language. Obviously, there is no such thing as one design solution that fits for all in the underlying domain. Context sensitivity, literacy and mental abilities are key factors on which I concentrated and the results emphasize that computer interfaces must be based on a thoughtful definition of target groups, purposes and objectives. N2 - Das Ziel und die Motivation hinter dieser Forschungsarbeit ist es, Anwendungen mit benutzerfreundlichen Schnittstellen für Gehörlose und Analphabeten bereitzustellen, welche es ihnen ermöglichen ohne jede menschliche Unterstützung zu arbeiten. Obwohl es in den letzten Jahren technologische Fortschritte gab, garantiert allein die Verfügbarkeit von Technik nicht automatisch die Zugänglichkeit zu Informations- und Kommunikationstechnologien (IKT). Umfangreiche Verwendung von Texten in Menüs bis hin zu Dokumenten führen dazu, dass Gehörlose und funktionale Analphabeten auf diese Dienste, die auf Computersystemen existieren, nicht zugreifen können. Folglich stellen die meisten bestehenden EDV-Anwendungen für diejenigen eine Hürde dar, die nicht fließend lesen können. Onlinetechnologien für solche Art von Gruppen sollten in kontinuierlichem Austausch mit den Hauptnutzern entwickelt werden und gründliche Untersuchung ihrer Einschränkungen, Anforderungen und Nutzungsbarrieren beinhalten. In dieser Forschungsarbeit untersuche ich vorhandene Tools im Bereich von Sprach-, Web- und anderen Multimedia-Technologien, um Lernlücken zu identifizieren und Wege zu erforschen, welche die Informationsalphabetisierung für Gehörlose und Analphabeten erweitert. Ich arbeitete an der Entwicklung einer nutzerzentrierten Schnittstelle, um die Fähigkeiten von Gehörlosen und Nutzern mit schlechter Alphabetisierung durch Verbesserung der lexikalischen Ressourcen und durch Auswertung mehrerer Multimediaschnittstellen zu erhöhen. Die Schnittstelle des plattformunabhängigen, italienischen Gebärdensprachen (LIS) Wörterbuches wurde entwickelt, um die lexikalischen Quellen für gehörlose Anwender zu verbessern. Ich integriere die LIS-lexikalischen Ressourcen mit der MultiWordNet (MWN)-Datenbank, um das erste LIS MultiWordNet (LMWN) zu bilden. LMWN enthält Informationen über lexikalische Beziehungen zwischen Wörtern, semantische Beziehungen zwischen lexikalischen Konzepten (Synsets), Gemeinsamkeiten zwischen italienischer und Gebärdensprache-lexikalischen Konzepten und semantischen Feldern (Domänen). Der Ansatz erhöht das Verständnis der tauben Nutzer geschriebene, italienischen Sprache zu verstehen und zeigt, dass ein relativ kleiner Satz an Lexika den wesentlichen Teil der MWN abdecken kann. Die Integration von LIS-Zeichen mit MWN machte es zu einem nützlichen Werkzeug für Linguistik und Sprachverarbeitung. Der regelbasierte Übersetzungsprozess von geschriebenem, italienischem Text zu LIS wurde in ein Service-orientiertes System überführt. Der Übersetzungsprozess besteht aus verschiedenen Modulen, einschließlich einem Parser, einem semantischen Interpreter, einem Generator und einem räumlichen Zuordnungs-Planer. Diese Übersetzungsprozedur wurde im Java Application Building Center (jABC) implementiert, welches ein Framework für das eXtrem Model Driven Design (XMDD) ist. Der XMDD-Ansatz konzentriert sich darauf die Softwareentwicklung näher zum konzeptionellen Design zu bringen, sodass die Funktionalität einer Softwarelösung von jemandem verstanden werden kann, der mit Programmierkonzepten unvertraut ist. Die Transformation richtet sich an die heterogene Herausforderung und verbessert die Wiederverwendbarkeit des Systems. Zur Verbesserung der E-Partizipation der funktionalen Analphabeten wurden zwei detaillierte Studien in der Republik Ruanda durchgeführt. In der ersten Studie wurde die traditionelle, textuelle Schnittstelle mit der virtuellen, charakterbasierten, interaktiven Schnittstelle verglichen. Diese Studie hat dazu beigetragen Barrieren der Benutzerfreundlichkeit zu identifizieren. Anwender evaluierten die Schnittstellen bezüglich drei grundlegender Bereiche der Benutzerfreundlichkeit: Effektivität, Effizienz und Zufriedenstellung bei der Problemlösung. In einer anderen Studie entwickelten wir vier verschiedene Schnittstellen, um die Benutzerfreundlichkeit und die Effekte der Online-Hilfe (konsequente Hilfe) für funktionale Analphabeten zu analysieren und verglichen verschiedene Hilfsmodi (einschließlich zusätzlicher Textinformationen, Audio-Unterstützung und mit Hilfe eines virtuellen Charakters) bezüglich der Verbesserung der Leistungsfähigkeit von teilweisen Analphabeten, um ihre Zielstellung zu erreichen. In unseren neu gestalteten Schnittstellen wurden Anweisungen automatisch in die Swahili Sprache übersetzt. Alle Schnittstellen wurden auf der Grundlage der Aufgabenbewältigung, des Zeitaufwands, der System Usability Scale (SUS) Rate und der Anzahl der Hilfegesuche bewertet. Die Ergebnisse zeigen, dass die Leistungsfähigkeit der teilweisen Analphabeten bei Nutzung der Online-Hilfe signifikant verbessert wurde. Diese Dissertation stellt somit einen neuen Entwicklungsansatz dar, bei welchem virtuelle Charaktere als zusätzliche Unterstützung genutzt werden, um Nutzer, die kaum lesen können oder sonstig eingeschränkt sind, zu unterstützen. Solche Komponenten erweitern die Anwendungsnutzbarkeit indem sie eine Vielzahl von Diensten wie das Übersetzen von Inhalten in eine Landessprache, das Bereitstellen von zusätzlichen akustisch, gesprochenen Informationen und die Durchführung einer automatischen Übersetzung von Text in Gebärdensprache bereitstellen. Offensichtlich gibt ist keine One Design-Lösung, die für alle zugrundeliegenden Domänen passt. Kontextsensitivität, Alphabetisierung und geistigen Fähigkeiten sind Schlüsselfaktoren, auf welche ich mich konzentriere. Die Ergebnisse unterstreichen, dass Computerschnittstellen auf einer exakten Definition der Zielgruppen, dem Zweck und den Zielen basieren müssen. KW - Mensch-Computer-Interaktion KW - assistive Technologien KW - HCI KW - user interfaces KW - sign language KW - online assistance KW - assistive technologies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70391 ER - TY - THES A1 - Abedjan, Ziawasch T1 - Improving RDF data with data mining T1 - Verbessern von RDF Daten durch Data-Mining N2 - Linked Open Data (LOD) comprises very many and often large public data sets and knowledge bases. Those datasets are mostly presented in the RDF triple structure of subject, predicate, and object, where each triple represents a statement or fact. Unfortunately, the heterogeneity of available open data requires significant integration steps before it can be used in applications. Meta information, such as ontological definitions and exact range definitions of predicates, are desirable and ideally provided by an ontology. However in the context of LOD, ontologies are often incomplete or simply not available. Thus, it is useful to automatically generate meta information, such as ontological dependencies, range definitions, and topical classifications. Association rule mining, which was originally applied for sales analysis on transactional databases, is a promising and novel technique to explore such data. We designed an adaptation of this technique for min-ing Rdf data and introduce the concept of “mining configurations”, which allows us to mine RDF data sets in various ways. Different configurations enable us to identify schema and value dependencies that in combination result in interesting use cases. To this end, we present rule-based approaches for auto-completion, data enrichment, ontology improvement, and query relaxation. Auto-completion remedies the problem of inconsistent ontology usage, providing an editing user with a sorted list of commonly used predicates. A combination of different configurations step extends this approach to create completely new facts for a knowledge base. We present two approaches for fact generation, a user-based approach where a user selects the entity to be amended with new facts and a data-driven approach where an algorithm discovers entities that have to be amended with missing facts. As knowledge bases constantly grow and evolve, another approach to improve the usage of RDF data is to improve existing ontologies. Here, we present an association rule based approach to reconcile ontology and data. Interlacing different mining configurations, we infer an algorithm to discover synonymously used predicates. Those predicates can be used to expand query results and to support users during query formulation. We provide a wide range of experiments on real world datasets for each use case. The experiments and evaluations show the added value of association rule mining for the integration and usability of RDF data and confirm the appropriateness of our mining configuration methodology. N2 - Linked Open Data (LOD) umfasst viele und oft sehr große öffentlichen Datensätze und Wissensbanken, die hauptsächlich in der RDF Triplestruktur bestehend aus Subjekt, Prädikat und Objekt vorkommen. Dabei repräsentiert jedes Triple einen Fakt. Unglücklicherweise erfordert die Heterogenität der verfügbaren öffentlichen Daten signifikante Integrationsschritte bevor die Daten in Anwendungen genutzt werden können. Meta-Daten wie ontologische Strukturen und Bereichsdefinitionen von Prädikaten sind zwar wünschenswert und idealerweise durch eine Wissensbank verfügbar. Jedoch sind Wissensbanken im Kontext von LOD oft unvollständig oder einfach nicht verfügbar. Deshalb ist es nützlich automatisch Meta-Informationen, wie ontologische Abhängigkeiten, Bereichs-und Domänendefinitionen und thematische Assoziationen von Ressourcen generieren zu können. Eine neue und vielversprechende Technik um solche Daten zu untersuchen basiert auf das entdecken von Assoziationsregeln, welche ursprünglich für Verkaufsanalysen in transaktionalen Datenbanken angewendet wurde. Wir haben eine Adaptierung dieser Technik auf RDF Daten entworfen und stellen das Konzept der Mining Konfigurationen vor, welches uns befähigt in RDF Daten auf unterschiedlichen Weisen Muster zu erkennen. Verschiedene Konfigurationen erlauben uns Schema- und Wertbeziehungen zu erkennen, die für interessante Anwendungen genutzt werden können. In dem Sinne, stellen wir assoziationsbasierte Verfahren für eine Prädikatvorschlagsverfahren, Datenvervollständigung, Ontologieverbesserung und Anfrageerleichterung vor. Das Vorschlagen von Prädikaten behandelt das Problem der inkonsistenten Verwendung von Ontologien, indem einem Benutzer, der einen neuen Fakt einem Rdf-Datensatz hinzufügen will, eine sortierte Liste von passenden Prädikaten vorgeschlagen wird. Eine Kombinierung von verschiedenen Konfigurationen erweitert dieses Verfahren sodass automatisch komplett neue Fakten für eine Wissensbank generiert werden. Hierbei stellen wir zwei Verfahren vor, einen nutzergesteuertenVerfahren, bei dem ein Nutzer die Entität aussucht die erweitert werden soll und einen datengesteuerten Ansatz, bei dem ein Algorithmus selbst die Entitäten aussucht, die mit fehlenden Fakten erweitert werden. Da Wissensbanken stetig wachsen und sich verändern, ist ein anderer Ansatz um die Verwendung von RDF Daten zu erleichtern die Verbesserung von Ontologien. Hierbei präsentieren wir ein Assoziationsregeln-basiertes Verfahren, der Daten und zugrundeliegende Ontologien zusammenführt. Durch die Verflechtung von unterschiedlichen Konfigurationen leiten wir einen neuen Algorithmus her, der gleichbedeutende Prädikate entdeckt. Diese Prädikate können benutzt werden um Ergebnisse einer Anfrage zu erweitern oder einen Nutzer während einer Anfrage zu unterstützen. Für jeden unserer vorgestellten Anwendungen präsentieren wir eine große Auswahl an Experimenten auf Realweltdatensätzen. Die Experimente und Evaluierungen zeigen den Mehrwert von Assoziationsregeln-Generierung für die Integration und Nutzbarkeit von RDF Daten und bestätigen die Angemessenheit unserer konfigurationsbasierten Methodologie um solche Regeln herzuleiten. KW - Assoziationsregeln KW - RDF KW - LOD KW - Mustererkennung KW - Synonyme KW - association rule mining KW - RDF KW - LOD KW - knowledge discovery KW - synonym discovery Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71334 ER -