TY - THES A1 - Krumpe, Mirko T1 - X-ray and optical properties of X-ray luminous active galactic nuclei T1 - Röntgen- und optische Eigenschaften von röntgenleuchtkräftigen aktiven Galaxienkernen N2 - Giacconi et al. (1962) discovered a diffuse cosmic X-ray background with rocket experiments when they searched for lunar X-ray emission. Later satellite missions found a spectral peak in the cosmic X-ray background at ~30 keV. Imaging X-ray satellites such as ROSAT (1990-1999) were able to resolve up to 80% of the background below 2 keV into single point sources, mainly active galaxies. The cosmic X-ray background is the integration of all accreting super-massive (several million solar masses) black holes in the centre of active galaxies over cosmic time. Synthesis models need further populations of X-ray absorbed active galaxy nuclei (AGN) in order to explain the cosmic X-ray background peak at ~30 keV. Current X-ray missions such as XMM-Newton and Chandra offer the possibility of studying these additional populations. This Ph.D. thesis studies the populations that dominate the X-ray sky. For this purpose the 120 ksec XMM-Newton Marano field survey, named for an earlier optical quasar survey in the southern hemisphere, is analysed. Based on the optical follow-up observations the X-ray sources are spectroscopically classified. Optical and X-ray properties of the different X-ray source populations are studied and differences are derived. The amount of absorption in the X-ray spectra of type II AGN, which are considered as a main contributor to the X-ray background at ~30 keV, is determined. In order to extend the sample size of the rare type II AGN, this study also includes objects from another survey, the XMM-Newton Serendipitous Medium Sample. In addition, the dependence of the absorption in type II AGN with redshift and X-ray luminosity is analysed. We detected 328 X-ray sources in the Marano field. 140 sources were spectroscopically classified. We found 89 type I AGN, 36 type II AGN, 6 galaxies, and 9 stars. AGN, galaxies, and stars are clearly distinguishable by their optical and X-ray properties. Type I and II AGN do not separate clearly. They have a significant overlap in all studied properties. In a few cases the X-ray properties are in contradiction to the observed optical properties for type I and type II AGN. For example we find type II AGN that show evidence for optical absorption but are not absorbed in X-rays. Based on the additional use of near infra-red imaging (K-band), we were able to identify several of the rare type II AGN. The X-ray spectra of type II AGN from the XMM-Newton Marano field survey and the XMM-Newton Serendipitous Medium Sample were analysed. Since most of the sources have only ~40 X-ray counts in the XMM-Newton PN-detector, I carefully studied the fit results of simulated X-ray spectra as a function of fit statistic and binning method. The objects revealed only moderate absorption. In particular, I do not find any Compton-thick sources (absorbed by column densities of NH > 1.5 x 10^24 cm^−2). This gives evidence that type II AGN are not the main contributor of the X-ray background around 30 keV. Although bias effects may occur, type II AGN show no noticeable trend of the amount of absorption with redshift or X-ray luminosity. N2 - Giacconi et al. (1962) entdeckten mit Hilfe von Raketenexperimenten auf der Suche nach Röntgenstrahlung vom Mond eine scheinbar diffuse extragalaktische Röntgenhintergrundstrahlung. Spätere Satellitenmissionen detektierten ein Maximum dieser Strahlung bei ~30 keV. Abbildenden Röntgensatelliten wie ROSAT (1990-1999) gelang es, bis zu 80% des diffusen Hintergrundes unter 2 keV in einzelne Punktquellen aufzulösen, von denen die überwiegende Mehrheit aktive Galaxienkerne waren. Der Röntgenhintergrund ist somit wahrscheinlich als die Emission der Gesamtheit aller akkretierenden superschweren (mehrere Millionen Sonnenmassen) schwarzen Löcher in den Zentren von Galaxien in der kosmischen Geschichte zu verstehen. Zur Erklärung des Maximums der spektralen Energieverteilung der Röntgenhintergrundstrahlung bei ~30 keV benötigen theoretische Modelle jedoch zusätzliche Populationen von röntgenabsorbierenden aktiven Galaxienkernen (AGN). Derzeitige Röntgenmissionen wie XMM-Newton und Chandra ermöglichen die Untersuchung dieser Quellklassen. Die vorliegende Arbeit untersucht die Quellpopulationen, die den Röntgenhimmel dominieren. Dazu wird die 120 ksec XMM-Newton Beobachtung im Marano Feld, Ziel einer früheren optischen AGN-Durchmusterung am Südhimmel, ausgewertet. Die optischen und Röntgeneigenschaften der unterschiedlichen Quellpopulationen werden untersucht und Unterschiede erarbeitet. Für die röntgenabsorbierende Objektklasse der Typ II AGN, die man als möglichen Erzeuger der Röntgenstrahlung um 30 keV betrachtet, wird aus den Röntgenspektren das Ausmaß der Absorption ermittelt. Um die Anzahl dieser selten gefundenen Objekte zu erhöhen, werden in dieser Arbeit zusätzliche Objekte aus der Röntgendurchmusterung des “XMM-Newton Serendipitous Medium Sample” einbezogen. Die Abhängigkeit der Absorption von der Rotverschiebung und der Röntgenleuchtkraft wird untersucht. Von 328 Röntgenquellen im Marano Feld konnten 140 spektroskopisch klassifiziert werden. Es wurden 89 Typ I AGN, 36 Typ II AGN, 6 Galaxien und 9 Sterne gefunden. Nur basierend auf den optischen und Röntgeneigenschaften können AGN, Galaxien und Sterne unterschieden werden. Typ I und II AGN lassen sich nicht klar trennen und zeigen große Gemeinsamkeiten in den untersuchten Eigenschaften. Mit Hilfe von zusätzlichen Aufnahmen im nahen Infraroten (K-Band) konnten erfolgreich mehrere seltene Typ II AGN identifiziert werden. Die Röntgenspektren von Typ II AGN aus dem XMM-Newton Marano Feld und dem “XMM-Newton Serendipitous Medium Sample” wurden ausgewertet. Die Objekte weisen nur eine mäßige Absorption auf und scheinen somit nicht einen Hauptbestandteil des Röntgenstrahlungshintergrundes um 30 keV zu erzeugen. Obwohl Selektionseffekte nicht vollständig verstanden sind, zeigen Typ II AGN keine erkennbare Abhängigkeit der Absorption von der Rotverschiebung oder der Röntgenleuchtkraft. KW - Aktive Galaxienkerne KW - Röntgenhintergrund KW - Quasare KW - Type I AGN KW - Type II AGN KW - Active Galactic Nuclei KW - X-ray background KW - quasars KW - type I AGN KW - type II AGN Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16993 ER - TY - THES A1 - Sójka, Pia T1 - Writing travel, writing life T1 - Reisen schreiben Leben T1 - Écriture, le voyage ou la vie BT - Ars Vivendi and the travelling narrations of Ella Maillart, Annemarie Schwarzenbach and Nicolas Bouvier BT - Ars Vivendi und die reisenden Erzählungen von Ella Maillart, Annemarie Schwarzenbach und Nicolas Bouvier BT - Ars Vivendi et les narrations itinérantes d'Ella Maillart, Annemarie Schwarzenbach et Nicolas Bouvier N2 - The book compares the texts of three Swiss authors: Ella Maillart, Annemarie Schwarzenbach and Nicolas Bouvier. The focus is on their trip from Genève to Kabul that Ella Maillart and Annemarie Schwarzenbach made together in 1939/1940 and Nicolas Bouvier 1953/1954 with the artist Thierry Vernet. The comparison shows the strong connection between the journey and life and between ars vivendi and travel literature. This book also gives an overview of and organises the numerous terms, genres, and categories that already exist to describe various travel texts and proposes the new term travelling narration. The travelling narration looks at the text from a narratological perspective that distinguishes the author, narrator, and protagonist within the narration. In the examination, ten motifs could be found to characterise the travelling narration: Culture, Crossing Borders, Freedom, Time and Space, the Aesthetics of Landscapes, Writing and Reading, the Self and/as the Other, Home, Religion and Spirituality as well as the Journey. The importance of each individual motif does not only apply in the 1930s or 1950s but also transmits important findings for living together today and in the future. N2 - Das Buch vergleicht die Texte von drei Schweizer Autoren: Ella Maillart, Annemarie Schwarzenbach und Nicolas Bouvier. Im Mittelpunkt steht die Reise von Genève nach Kabul, die Ella Maillart gemeinsam mit Annemarie Schwarzenbach 1939/1940 und Nicolas Bouvier 1953/1954 mit dem Künstler Thierry Vernet unternahmen. Der Vergleich zeigt die enge Verbindung zwischen der Reise und dem Leben sowie zwischen ars vivendi und Reiseliteratur. Das Buch gibt einen Überblick über die zahlreichen Begriffe, Gattungen und Kategorien, die bereits zur Beschreibung verschiedener Reisetexte existieren, und schlägt den neuen Begriff der reisenden Erzählung „travelling narration“ vor. Die reisende Erzählung betrachtet den Text aus einer narratologischen Perspektive, die den Autor, Erzähler und Protagonisten innerhalb der Erzählung unterscheidet. In der Untersuchung konnten zehn Motive gefunden werden, die die reisende Erzählung charakterisieren: Kultur, Grenzüberschreitung, Freiheit, Zeit und Raum, Ästhetik der Landschaft, Schreiben und Lesen, das Selbst und / oder der Andere, Heimat, Religion und Spiritualität sowie die Reise. Die Bedeutung jedes einzelnen Motivs gilt nicht nur für die 1930er oder 1950er Jahre, sondern vermittelt auch wichtige Erkenntnisse für das Zusammenleben heute und in der Zukunft. N2 - Le livre compare les textes de trois auteurs suisses : Ella Maillart, Annemarie Schwarzenbach et Nicolas Bouvier. L'accent est mis sur le voyage de Genève à Kaboul qu'Ella Maillart et Annemarie Schwarzenbach ont effectué ensemble en 1939/1940 et Nicolas Bouvier 1953/1954 avec l'artiste Thierry Vernet. La comparaison montre le lien fort entre le voyage et la vie et entre l'ars vivendi et la littérature de voyage. Ce livre donne également un aperçu et organise les nombreux termes, genres et catégories qui existent déjà pour décrire les différents textes de voyage et propose le nouveau terme narration itinérante „travelling literature“. La narration itinérante examine le texte dans une perspective narratologique qui distingue l'auteur, le narrateur et le protagoniste au sein de la narration. Au cours de l'examen, dix motifs ont été trouvés pour caractériser le récit de voyage : La culture, la traversée des frontières, la liberté, le temps et l'espace, l'esthétique des paysages, l'écriture et la lecture, le soi et l'autre, la maison, la religion et la spiritualité ainsi que le voyage. L'importance de chaque motif individuel ne s'applique pas seulement aux années 1930 ou 1950, mais transmet également des conclusions importantes pour le vivre ensemble aujourd'hui et à l'avenir. T3 - Potsdamer Bibliothek der WeltRegionen (PoWeR) - 5 KW - travel literature KW - récit de voyage KW - Reiseliteratur KW - Ella Maillart KW - Ella Maillart KW - Ella Maillart KW - Nicolas Bouvier KW - Nicolas Bouvier KW - Nicolas Bouvier KW - Annemarie Schwarzenbach KW - Annemarie Schwarzenbach KW - Annemarie Schwarzenbach KW - art of life KW - Lebenskunst KW - savoir vivre Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558799 SN - 978-3-86956-537-8 SN - 2629-2548 SN - 2629-253X PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Priewe, Marc T1 - Writing transit : refiguring national imaginaries in Chicana/o narratives T2 - American Studies Y1 - 2006 SN - 978-3-8253-5215-8 VL - 140 PB - Winter CY - Heidelberg ER - TY - THES A1 - Dahlsten, Ulf T1 - World market governance T1 - Weltmarktsteuerung BT - the alternative; how an international rule of law can reap the benefits of the global market economy and strengthen national and regional sovereignty N2 - Democratic capitalism or liberal democracy, as the successful marriage of convenience between market liberalism and democracy sometimes is called, is in trouble. The market economy system has become global and there is a growing mismatch with the territoriality of the nation-states. The functional global networks and inter-governmental order can no longer keep pace with the rapid development of the global market economy and regulatory capture is all too common. Concepts like de-globalization, self-regulation, and global government are floated in the debate. The alternatives are analysed and found to be improper, inadequate or plainly impossible. The proposed route is instead to accept that the global market economy has developed into an independent fundamental societal system that needs its own governance. The suggestion is World Market Governance based on the Rule of Law in order to shape the fitness environment for the global market economy and strengthen the nation-states so that they can regain the sovereignty to decide upon the social and cultural conditions in each country. Elements in the proposed Rule of Law are international legislation decided by an Assembly supported by a Council, and an independent Judiciary. Existing international organisations would function as executors. The need for broad sustained demand for regulations in the common interest is identified. N2 - Die erfolgreiche Zweckehe zwischen Marktliberalismus und Demokratie, auch als Demokratischer Kapitalismus oder Liberale Demokratie bezeichnet, befindet sich in einer Krise. Das System der Marktwirtschaft hat sich globalisiert und die Diskrepanz zur Territorialität der Nationalstaaten nimmt zu. Globale Netzwerke und die zwischenstaatliche Ordnung können nicht mehr Schritt halten mit der Entwicklungsgeschwindigkeit der globalen Marktwirtschaft, und die Vereinnahmung von Regulierungsinstanzen („regulatory capture“) ist ein weit verbreitetes Phänomen. Konzepte wie Deglobalisierung, Selbstregulierung und Weltregierung werden debattiert. Diese Alternativen werden in dieser Dissertationsschrift analysiert und stellen sich als unpassend, unzulänglich oder schlicht unmöglich heraus. Stattdessen wird vorgeschlagen, zu akzeptieren, dass sich die globale Marktwirtschaft zu einem unabhängigen fundamentalen gesellschaftlichen System entwickelt hat, das einer eigenen Steuerung bedarf. Vorgeschlagen wird ein System der Weltmarktsteuerung aufbauend auf dem Prinzip der Rechtsstaatlichkeit, in das die globale Marktwirtschaft eingebettet wird und das die Nationalstaaten stärkt, so dass sie Ihre Souveränität hinsichtlich Entscheidungen über nationale soziale und kulturelle Bedingungen wiedererlangen. Elemente des vorgeschlagenen gesetzesbasierten Steuerung sind eine internationale Gesetzgebung durch eine Versammlung, unterstützt durch einen Rat, und eine unabhängige Gerichtsbarkeit. Bestehende Internationale Organisationen würden als Exekutive fungieren. Dazu ist eine dauerhafte und umfängliche Nachfrage nach Regulierung im Gemeininteresse erforderlich. KW - Welt KW - Wirtschaft KW - Steuerung KW - Finanz KW - Markt KW - global KW - markets KW - governance KW - finance KW - economy Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70168 ER - TY - THES A1 - Heinzel, Mirko Noa T1 - World Bank staff and project implementation BT - the importance of country-specific knowledge Y1 - 2021 ER - TY - THES A1 - Muschalla, Beate T1 - Workplace-related anxieties and workplace phobia : a concept of domain-specific mental disorders T1 - Arbeitsplatzbezogene Ängste und Arbeitsplatzphobie : Konzeptualisierung einer lebensbereichsspezifischen psychischen Erkrankung N2 - Background: Anxiety in the workplace is a special problem as workplaces are especially prone to provoke anxiety: There are social hierarchies, rivalries between colleagues, sanctioning through superiors, danger of accidents, failure, and worries of job security. Workplace phobia is a phobic anxiety reaction with symptoms of panic occurring when thinking of or approaching the workplace, and with clear tendency of avoidance. Objectives: What characterizes workplace-related anxieties and workplace phobia as domain-specific mental disorders in contrast to conventional anxiety disorders? Method: 230 patients from an inpatient psychosomatic rehabilitation center were interviewed with the (semi-)structured Mini-Work-Anxiety-Interview and the Mini International Neuropsychiatric Interview, concerning workplace-related anxieties and conventional mental disorders. Additionally, the patients filled in the self-rating questionnaires Job-Anxiety-Scale (JAS) and the Symptom Checklist (SCL-90-R)measuring job-related and general psychosomatic symptom load. Results: Workplace-related anxieties occurred together with conventional anxiety disorders in 35% of the patients, but also alone in others (23%). Workplace phobia could be found in 17% of the interviewed, any diagnosis of workplace-related anxiety was stated in 58%. Workplace phobic patients had significantly higher scores in job-anxiety than patients without workplace phobia. Patients with workplace phobia were significantly longer on sick leave in the past 12 months (23,5 weeks) than patients without workplace phobia (13,4 weeks). Different qualities of workplace-related anxieties lead with different frequencies to work participation disorders. Conclusion: Workplace phobia cannot be described by only assessing the general level of psychosomatic symptom load and conventional mental disorders. Workplace-related anxieties and workplace phobia have an own clinical value which is mainly defined by specific workplace-related symptom load and work-participation disorders. They require special therapeutic attention and treatment instead of a “sick leave” certification by the general health physician. Workplace phobia should be named with a proper diagnosis according to ICD-10 chapter V, F 40.8: “workplace phobia”. N2 - Hintergrund: Angst am Arbeitsplatz ist ein spezielles Phänomen, da Arbeitsplätze ihrer Natur nach angstauslösende Charakteristika aufweisen: Vorgesetzte die sanktionieren, Rangkämpfe mit Kollegen, reale Unfallgefahren, Scheitern und Leistungsversagen, Unklarheit um plötzliche Veränderungen, Arbeitsplatzunsicherheit. Arbeitsplatzphobie ist eine phobische Angstreaktion mit Panikerleben beim Gedanken an oder bei Annäherung an den Arbeitsplatz. Fragestellung: Was charakterisiert arbeitsplatzbezogene Ängste und Arbeitsplatzphobie als lebensbereichsspezifische Angsterkrankungen in Abgrenzung zu klassischen Angsterkrankungen? Methode: 230 Patienten einer stationären psychosomatischen Rehabilitation wurden im halbstrukturierten Interview (Mini-Arbeits-Angst-Interview, Mini International Neuropsychiatric Interview) hinsichtlich arbeitsplatzbezogener Ängste und klassischer psychischer Erkrankungen befragt. Selbsteinschätzungsurteile wurden hinsichtlich des Schweregrads der arbeitsbezogenen (Job-Angst-Skala, JAS) und allgemeinen psychosomatischen (Symptom-Checkliste, SCL-90-R) Symptombelastung erhoben. Ergebnisse: 58% der befragten Patienten litten an mindestens einer arbeitsplatzbezogenen Angstvariante. Arbeitsplatzbezogene Ängste kamen bei 35% der Befragten zusammen mit einer klassischen Angsterkrankung vor, bei 23% jedoch als allein stehende Angsterkrankung. 17% der Befragten erfüllten die Kriterien einer Arbeitsplatzphobie. Arbeitsplatzphobie-Patienten hatten signifikant höhere Job-Angst-Werte als Patienten ohne Arbeitsplatzphobie, und sie waren signifikant länger arbeitsunfähig in den letzten 12 Monaten (23,5 Wochen versus 13,4 Wochen). Schlussfolgerung: Arbeitsplatzbezogene Ängste und Arbeitsplatzphobie haben eine spezielle klinische Wertigkeit, die sich anhand arbeitsbezogener Partizipationsstörungen und spezifischer arbeitsbezogener Symptombelastung beschreiben lässt. Arbeitsplatzphobie erfordert besondere therapeutische Herangehensweisen anstelle von angsterhaltender da Vermeidungsverhalten fördernder „Krankschreibung“. Arbeitsplatzphobie sollte als Diagnose benannt werden entsprechend ICD-10 Kapitel V, F 40.8: “Arbeitsplatzphobie”. KW - Arbeitsplatzphobie KW - Angsterkrankung KW - Arbeitsplatz KW - Arbeitsunfähigkeit KW - Partizipationsstörung KW - workplace phobia KW - anxiety disorder KW - workplace KW - sick leave KW - participation disorder Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-20048 ER - TY - THES A1 - Jäger, Lena Ann T1 - Working memory and prediction in human sentence parsing T1 - Arbeitsgedächtnis und Vorhersagbarkeit in der menschlichen Satzverarbeitung BT - cross-linguistic evidence from anaphoric dependencies and relative clauses BT - neue Erkenntnisse durch cross-linguistische Untersuchungen zu anaphorischen Dependenzen und Relativsätzen N2 - This dissertation investigates the working memory mechanism subserving human sentence processing and its relative contribution to processing difficulty as compared to syntactic prediction. Within the last decades, evidence for a content-addressable memory system underlying human cognition in general has accumulated (e.g., Anderson et al., 2004). In sentence processing research, it has been proposed that this general content-addressable architecture is also used for language processing (e.g., McElree, 2000). Although there is a growing body of evidence from various kinds of linguistic dependencies that is consistent with a general content-addressable memory subserving sentence processing (e.g., McElree et al., 2003; VanDyke2006), the case of reflexive-antecedent dependencies has challenged this view. It has been proposed that in the processing of reflexive-antecedent dependencies, a syntactic-structure based memory access is used rather than cue-based retrieval within a content-addressable framework (e.g., Sturt, 2003). Two eye-tracking experiments on Chinese reflexives were designed to tease apart accounts assuming a syntactic-structure based memory access mechanism from cue-based retrieval (implemented in ACT-R as proposed by Lewis and Vasishth (2005). In both experiments, interference effects were observed from noun phrases which syntactically do not qualify as the reflexive's antecedent but match the animacy requirement the reflexive imposes on its antecedent. These results are interpreted as evidence against a purely syntactic-structure based memory access. However, the exact pattern of effects observed in the data is only partially compatible with the Lewis and Vasishth cue-based parsing model. Therefore, an extension of the Lewis and Vasishth model is proposed. Two principles are added to the original model, namely 'cue confusion' and 'distractor prominence'. Although interference effects are generally interpreted in favor of a content-addressable memory architecture, an alternative explanation for interference effects in reflexive processing has been proposed which, crucially, might reconcile interference effects with a structure-based account. It has been argued that interference effects do not necessarily reflect cue-based retrieval interference in a content-addressable memory but might equally well be accounted for by interference effects which have already occurred at the moment of encoding the antecedent in memory (Dillon, 2011). Three experiments (eye-tracking and self-paced reading) on German reflexives and Swedish possessives were designed to tease apart cue-based retrieval interference from encoding interference. The results of all three experiments suggest that there is no evidence that encoding interference affects the retrieval of a reflexive's antecedent. Taken together, these findings suggest that the processing of reflexives can be explained with the same cue-based retrieval mechanism that has been invoked to explain syntactic dependency resolution in a range of other structures. This supports the view that the language processing system is located within a general cognitive architecture, with a general-purpose content-addressable working memory system operating on linguistic expressions. Finally, two experiments (self-paced reading and eye-tracking) using Chinese relative clauses were conducted to determine the relative contribution to sentence processing difficulty of working-memory processes as compared to syntactic prediction during incremental parsing. Chinese has the cross-linguistically rare property of being a language with subject-verb-object word order and pre-nominal relative clauses. This property leads to opposing predictions of expectation-based accounts and memory-based accounts with respect to the relative processing difficulty of subject vs. object relatives. Previous studies showed contradictory results, which has been attributed to different kinds local ambiguities confounding the materials (Lin and Bever, 2011). The two experiments presented are the first to compare Chinese relatives clauses in syntactically unambiguous contexts. The results of both experiments were consistent with the predictions of the expectation-based account of sentence processing but not with the memory-based account. From these findings, I conclude that any theory of human sentence processing needs to take into account the power of predictive processes unfolding in the human mind. N2 - Diese Dissertation untersucht die der menschlichen Satzverarbeitung zugrunde liegenden Mechanismen des Arbeitsgedächtnisses sowie deren Bedeutung für die Verarbeitungskomplexität im Vergleich zu dem Einfluss syntaktischer Erwartung. Vor dem Hintergrund der in den vergangenen Jahrzehnten angewachsenen empirischen Evidenz für ein assoziatives Gedächtnissystem als Grundlage der menschlichen Kognition im Allgemeinen (z.B. Anderson et al., 2004) wurde u.a. von McElree (2000) vorgeschlagen, dass dieses assoziative Gedächtnissystem auch der Sprachverarbeitung im Besonderen dient (z.B. McElree, 2000) und die Sprachverarbeitung folglich nicht etwa als ein von anderen kognitiven Fähigkeiten weitgehend losgelöstes Modul (z.B. Frazier, 1979) zu begreifen ist. Obwohl sich die Evidenz für ein assoziatives Gedächtnis in der Sprachverarbeitung stetig mehrt (z.B. McElree et al., 2003; VanDyke2006), werden Daten zur Verarbeitung von Reflexivpronomen als Argument gegen ein assoziatives Gedächtnis herangezogen. So schlug beispielsweise Sturt (2003) vor, dass der Gedächtniszugriff in der Verarbeitung von Reflexivpronomen-Antezedens-Dependenzen nicht assoziativer Natur ist, sondern rein syntaktisch gesteuert ist (z.B., Sturt, 2003). Im ersten Teil der vorliegenden Arbeit werden zwei Leseexperimente (Eyetracking) vorgestellt, welche die Verarbeitung des chinesischen Reflexivpronomens 'ziji' testen und die darauf ausgelegt sind, Theorien, die einen syntaktisch gesteuerten Gedächtniszugriff annehmen, von Theorien, die einen assoziativen Gedächtniszugriff, wie er beispielsweise in dem ACTR-basierten Modell von Lewis and Vasishth (2005) implementiert wurde, zu unterscheiden. In beiden Experimenten wurden Interferenzeffekte von Nominalphrasen beobachtet, die syntaktisch nicht als Antezedens des Reflexivpronomens in Frage kommen, aber das Belebtheitskriterium, das 'ziji' an seinen Antezedens stellt, erfüllen. Diese Ergebnisse werden als Evidenz gegen einen rein syntaktisch gesteuerten Gedächtniszugriff interpretiert. Jedoch sind diese Ergebnisse auch mit dem assoziativen Modell von Lewis und Vasishth (2005) nicht vollkommen vereinbar. Daher wird in der vorliegenden Arbeit eine Erweiterung des Modells von Lewis und Vasishth entwickelt. Zwei neue Prinzipien, 'cue confusion' und 'distractor prominence’, werden dem Originalmodell hinzugefügt und deren Auswirkungen auf die Vorhersagen des Modells diskutiert. Wenngleich Interferenzeffekte im Allgemeinen als Evidenz für ein assoziatives Gedächtnis herangezogen werden, argumentierte Dillon (2011), dass die empirisch beobachteten Interferenzeffekte nicht notwendigerweise Interferenzen im Moment eines assoziativen Gedächtniszugriffs reflektieren, sondern gleichermaßen Interferenzen widerspiegeln können, die bereits bei der Abspeicherung des entsprechenden Elements (z.B. des Antezedens in Reflexiv-Antezedens-Dependenzen) im Gedächtnis stattgefunden haben. Dies würde Interferenzeffekte mit einem nicht-assoziativen Gedächtnismodell vereinbar machen. Im zweiten Teil dieser Dissertation werden drei Experimente (selbst-gesteuertes Lesen und Eyetracking) vorgestellt, die deutsche Reflexivpronomen sowie schwedische Possessivpronomen testen und darauf abzielen, Rückschlüsse über den Moment der Interferenz (Interferenz beim Gedächtniszugriff im Gegensatz zu Interferenz bei der Speicherung) zu ziehen. Die Ergebnisse aller drei Experimente zeigen, dass etwaige Interferenzen beim Abspeichern eines Nomens keinen Einfluss auf dessen späteren Zugriff haben. Zusammengefasst zeigen die Ergebnisse dieser Experimente zum Chinesischen, Deutschen und Schwedischen, dass die Verarbeitung von Reflexivpronomen mit demselben assoziativen Gedächtniszugriff erklärt werden kann, von dem angenommen wird, dass er der Verarbeitung einer Reihe anderer syntaktischer Dependenzen zugrunde liegt. Darüber hinaus sind die hier vorgestellten Ergebnisse im Einklang mit einer generellen Theorie über die menschliche Kognition, die das Sprachverarbeitungssystem als Bestandteil einer allgemeinen kognitiven Architektur begreift, in welcher ein allgemeines assoziatives Gedächtnissystem auf sprachlichen Repräsentationen operiert. Im dritten Teil dieser Dissertation werden zwei weitere Leseexperimente (selbst-gesteuertes Lesen und Eyetracking) vorgestellt, in denen anhand chinesischer Relativsätze die Wirkung von Arbeitsgedächtnisprozessen im Vergleich zu der Wirkung syntaktischer Erwartung auf die Komplexität der inkrementellen Satzverarbeitung untersucht wird. Chinesisch ist cross-linguistisch insofern eine außergewöhnliche Sprache, als dass es eine Subjekt-Verb-Objekt-Wortstellung mit pränominalen Relativsätzen vereint. Die Kombination dieser Eigenschaften führt dazu, dass Theorien, die Satzverarbeitungskomplexität primär Arbeitsgedächtnisprozessen zuschreiben (z.B. Gibson, 2000), und erwartungsbasierte Theorien, welche die Satzverarbeitungskomplexität dem Erfüllen bzw. dem Brechen syntaktischer oder lexikalischer Erwartungen zuschreiben (z.B. Hale, 2001; Levy, 2008), gegensätzliche Vorhersagen machen. Bisherige Studien zu chinesischen Relativsätzen zeigten widersprüchliche Ergebnisse, was mit dem Vorhandensein konfundierender lokaler syntaktischer Ambiguitäten in den Stimuli erklärt wurde (Lin und Bever, 2011). Die beiden in dieser Arbeit vorgestellten Experimente testen erstmals chinesische Relativsätze anhand von Materialien, die frei von syntaktischen Ambiguitäten sind. Die Ergebnisse beider Experimente sind vereinbar mit erwartungsbasierten Theorien, aber nicht mit Theorien, die Satzverarbeitungskomplexität allein mit Arbeitsgedächtnisprozessen erklären. Diese Ergebnisse zeigen, dass jede umfassende Theorie der Satzverarbeitung erwartungsgesteuerten kognitiven Prozessen einen wichtigen Stellenwert einräumen muss. KW - working memory KW - Arbeitsgedächtnis KW - sentence processing KW - Satzverarbeitung KW - cognitive modeling KW - kognitive Modellierung KW - psycholinguistics KW - Psycholinguistik KW - ACT-R KW - Chinese KW - Chinesisch KW - reflexives KW - Reflexivpronomen KW - relative clauses KW - Relativsätze KW - linguistics KW - Linguistik KW - German KW - Deutsch KW - prediction KW - syntactic expectation KW - content-addressable memory Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82517 ER - TY - THES A1 - Teetz, Tim T1 - Work design and leadership in lean production Y1 - 2022 ER - TY - THES A1 - Marimon Tarter, Mireia T1 - Word segmentation in German-learning infants and German-speaking adults T1 - Wortsegmentierung bei deutschsprachigen Kindern und Erwachsenen BT - prosodic and statistical cues BT - prosodische und statitistische Hinweisreize N2 - There is evidence that infants start extracting words from fluent speech around 7.5 months of age (e.g., Jusczyk & Aslin, 1995) and that they use at least two mechanisms to segment words forms from fluent speech: prosodic information (e.g., Jusczyk, Cutler & Redanz, 1993) and statistical information (e.g., Saffran, Aslin & Newport, 1996). However, how these two mechanisms interact and whether they change during development is still not fully understood. The main aim of the present work is to understand in what way different cues to word segmentation are exploited by infants when learning the language in their environment, as well as to explore whether this ability is related to later language skills. In Chapter 3 we pursued to determine the reliability of the method used in most of the experiments in the present thesis (the Headturn Preference Procedure), as well as to examine correlations and individual differences between infants’ performance and later language outcomes. In Chapter 4 we investigated how German-speaking adults weigh statistical and prosodic information for word segmentation. We familiarized adults with an auditory string in which statistical and prosodic information indicated different word boundaries and obtained both behavioral and pupillometry responses. Then, we conducted further experiments to understand in what way different cues to word segmentation are exploited by 9-month-old German-learning infants (Chapter 5) and by 6-month-old German-learning infants (Chapter 6). In addition, we conducted follow-up questionnaires with the infants and obtained language outcomes at later stages of development. Our findings from this thesis revealed that (1) German-speaking adults show a strong weight of prosodic cues, at least for the materials used in this study and that (2) German-learning infants weight these two kind of cues differently depending on age and/or language experience. We observed that, unlike English-learning infants, 6-month-old infants relied more strongly on prosodic cues. Nine-month-olds do not show any preference for either of the cues in the word segmentation task. From the present results it remains unclear whether the ability to use prosodic cues to word segmentation relates to later language vocabulary. We speculate that prosody provides infants with their first window into the specific acoustic regularities in the signal, which enables them to master the specific stress pattern of German rapidly. Our findings are a step forwards in the understanding of an early impact of the native prosody compared to statistical learning in early word segmentation. N2 - Es gibt Beweise, dass Babys im Alter um 7.5 Monate anfangen, Wörter aus flüssiger Sprache zu extrahieren (z.B., Jusczyk & Aslin, 1995), dabei werden mindestens zwei Mechanismen angewandt, um Wörter aus dem Sprachfluss zu segmentieren: prosodische Information (z.B. Jusczyk, Cutler & Redanz, 1993) und statistische Information (z.B., Saffran, Aslin & Newport, 1996). Aber wie diese zwei Mechanismen zusammenwirken und ob sie sich während der Entwicklung verändern, wurde noch nicht vollständig geklärt. Das Hauptziel dieser Dissertation ist es zu verstehen, inwiefern sich Kleinkinder die verschiedenen Hinweisreize für die Segmentierung von Wörtern erschließen, wenn sie die Sprache ihres Umfelds lernen, sowie ob diese Fähigkeit in Verbindung mit späteren Sprachfähigkeiten steht. In Kapitel 3 wurde die Zuverlässigkeit der in dieser Dissertation benutzten Methode (the Headturn Preference Procedure) eruiert, sowie die Korrelationen und individuellen Differenzen zwischen den Ergebnissen einzelner Babys und späteren Sprachfähigkeiten untersucht. Im Kapitel 4 wurde untersucht, wie deutschsprachige Erwachsene auf statistische und prosodische Informationen für Wortsegmentierung reagieren. Wir haben Erwachsene mit einer akustischen Sequenz familiarisiert, bei der die statistischen und prosodischen Informationen verschiedene Wortgrenzen anzeigen, und Verhaltens- und Pupillometriedaten erhoben. Anschließend haben wir weitere Experimente durchgeführt, um zu verstehen, wie verschiedene Hinweisreize von 9-Monate (Kapitel 5) und 6-Monate alten deutschsprachigen Säuglingen (Kapitel 6) aufgenommen werden. Außerdem haben wir nach den Versuchen mit Fragebögen Daten über die Sprachfähigkeiten in späteren Entwicklungsstadien gesammelt. Unsere Ergebnisse lassen darauf schließen, dass (1) deutschsprachige Erwachsene eine hohe Gewichtung der prosodischen Hinweisreize zeigen, zumindest bei dem für die Studie genutzten akustischen Material, und dass (2) bei deutschsprachigen Babys in Abhängigkeit von Alter und/oder Spracherfahrung diese zwei Hinweisreize unterschiedlich gewichtet werden. Wir stellen fest, dass sich 6-Monate alte deutschsprachige Babys stärker auf die prosodichen Hinweisreize verlassen haben als die englischsprachigen Babys. Neun Monate alte Babys haben bei der Wortsegmentierung der Audiosequenz gescheitert und haben keine Vorliebe für einen der beiden Hinweisreize gezeigt. Mit den momentanen Ergebnissen bleibt weiterhin unklar, ob die Fähigkeit, prosodische Hinweisreize für die Wortsegmentierung zu nutzen, in Verbindung mit der späteren Weiterentwicklung des Wortschatzes steht. Wir vermuten, dass Prosodie den Babys einen ersten Einblick in die spezifischen akustischen Regelmäßigkeiten des Signals verschafft, was ihnen dabei hilft, das Betonungsmuster der deutsche Sprache schnell zu erlernen. Unsere Ergebnisse sind ein weiterer Schritt vorwärts was das Verständnis eines frühen Einflusses von muttersprachlicher Prosodie im Vergleich zu statistischem Erlernen in der frühen Wortsegmentierung betrifft. KW - word segmentation KW - prosody KW - statistical learning KW - Wortsegmentierung KW - Prosodie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437400 ER - TY - THES A1 - Pregla, Andreas T1 - Word order variability in OV languages T1 - Wortstellungsvariabilität in verbfinalen Sprachen BT - a study on scrambling, verb movement, and postverbal elements with a focus on Uralic languages BT - eine Untersuchung von Scrambling, Verbbewegung und postverbalen Elementen mit besonderem Augenmerk auf die uralischen Sprachen N2 - This thesis explores word order variability in verb-final languages. Verb-final languages have a reputation for a high amount of word order variability. However, that reputation amounts to an urban myth due to a lack of systematic investigation. This thesis provides such a systematic investigation by presenting original data from several verb-final languages with a focus on four Uralic ones: Estonian, Udmurt, Meadow Mari, and South Sámi. As with every urban myth, there is a kernel of truth in that many unrelated verb-final languages share a particular kind of word order variability, A-scrambling, in which the fronted elements do not receive a special information-structural role, such as topic or contrastive focus. That word order variability goes hand in hand with placing focussed phrases further to the right in the position directly in front of the verb. Variations on this pattern are exemplified by Uyghur, Standard Dargwa, Eastern Armenian, and three of the Uralic languages, Estonian, Udmurt, and Meadow Mari. So far for the kernel of truth, but the fourth Uralic language, South Sámi, is comparably rigid and does not feature this particular kind of word order variability. Further such comparably rigid, non-scrambling verb-final languages are Dutch, Afrikaans, Amharic, and Korean. In contrast to scrambling languages, non-scrambling languages feature obligatory subject movement, causing word order rigidity next to other typical EPP effects. The EPP is a defining feature of South Sámi clause structure in general. South Sámi exhibits a one-of-a-kind alternation between SOV and SAuxOV order that is captured by the assumption of the EPP and obligatory movement of auxiliaries but not lexical verbs. Other languages that allow for SAuxOV order either lack an alternation because the auxiliary is obligatorily present (Macro-Sudan SAuxOVX languages), or feature an alternation between SVO and SAuxOV (Kru languages; V2 with underlying OV as a fringe case). In the SVO–SAuxOV languages, both auxiliaries and lexical verbs move. Hence, South Sámi shows that the textbook difference between the VO languages English and French, whether verb movement is restricted to auxiliaries, also extends to OV languages. SAuxOV languages are an outlier among OV languages in general but are united by the presence of the EPP. Word order variability is not restricted to the preverbal field in verb-final languages, as most of them feature postverbal elements (PVE). PVE challenge the notion of verb-finality in a language. Strictly verb-final languages without any clause-internal PVE are rare. This thesis charts the first structural and descriptive typology of PVE. Verb-final languages vary in the categories they allow as PVE. Allowing for non-oblique PVE is a pivotal threshold: when non-oblique PVE are allowed, PVE can be used for information-structural effects. Many areally and genetically unrelated languages only allow for given PVE but differ in whether the PVE are contrastive. In those languages, verb-finality is not at stake since verb-medial orders are marked. In contrast, the Uralic languages Estonian and Udmurt allow for any PVE, including information focus. Verb-medial orders can be used in the same contexts as verb-final orders without semantic and pragmatic differences. As such, verb placement is subject to actual free variation. The underlying verb-finality of Estonian and Udmurt can only be inferred from a range of diagnostics indicating optional verb movement in both languages. In general, it is not possible to account for PVE with a uniform analysis: rightwards merge, leftward verb movement, and rightwards phrasal movement are required to capture the cross- and intralinguistic variation. Knowing that a language is verb-final does not allow one to draw conclusions about word order variability in that language. There are patterns of homogeneity, such as the word order variability driven by directly preverbal focus and the givenness of postverbal elements, but those are not brought about by verb-finality alone. Preverbal word order variability is restricted by the more abstract property of obligatory subject movement, whereas the determinant of postverbal word order variability has to be determined in the future. N2 - Diese Dissertation behandelt die Wortstellungsvariabilität verbfinaler Sprachen. Verbfinale Sprachen haben den Ruf, ein hohes Maß an Wortstellungsvariabilität aufzuweisen. Dieser Ruf beruht jedoch lediglich auf anekdotischen Befunden, da es einer systematischen Untersuchung eines solchen Zusammenhangs ermangelt. Die vorliegende Dissertation stellt eine solche systematische Untersuchung dar. Dafür werden neu erhobene Daten zu mehreren verbfinalen Sprachen präsentiert. Der Schwerpunkt liegt dabei auf vier uralischen Sprachen: Estnisch, Udmurtisch, Wiesenmari und Südsamisch. Der Ruf der Wortstellungsvariabilität erweist sich teils als wahr, da viele nicht miteinander verwandte, verbfinale Sprachen dieselbe Art Wortstellungsvariabilität teilen, das sogenannte A-Scrambling. A-Scrambling zeichnet sich gegenüber anderen Arten der Wortstellungsvariabilität dadurch aus, dass vorangestellten Elementen keine spezielle informationsstrukturelle Rolle wie Topic oder kontrastiver Fokus zukommt. A-Scrambling geht mit einem rechtsbefindlichen, unmittelbar präverbalen Fokus einher. Variationen des Musters aus A-Scrambling und präverbalem Fokus finden sich im Uigurischen, Standard-Dargwa, Ostarmenischen und in drei der uralischen Sprachen, nämlich Estnisch, Udmurtisch und Wiesenmari. Insofern bestätigt sich der Eindruck einer homogenen Wortstellungsvariabilität in verbfinalen Sprachen. Die vierte untersuchte uralische Sprache, Südsamisch, widerspricht diesem Eindruck jedoch. Südsamisch weist eine vergleichsweise feste Wortstellung auf trägt nicht die Kennzeichen von A-Scrambling. Darüberhinaus gibt es noch weitere, vergleichsweise starre, scramblinglose verbfinale Sprachen: Niederländisch, Afrikaans, Amharisch und Koreanisch. Im Gegensatz zu Sprachen mit A-Scrambling weisen scramblinglose Sprachen obligatorische Subjektbewegung (EPP) auf. Das EPP führt neben anderen typischen EPP-Effekten zu einer starren Wortstellung. Das EPP ist ein zentrales Merkmal der Satzstruktur im Südsamischen. Das Südsamische weist eine bislang nicht attestierte Alternation zwischen SOV- und SAuxOV-Stellung auf. Diese Alternation kann durch das Zusammenspiel von EPP und der obligatorischen Bewegung von Hilfsverben, nicht jedoch von lexikalischen Verben, erfasst werden. Andere Sprachen mit SAuxOV-Stellung weisen entweder keine systematische Alternation auf, weil das Hilfsverb obligatorisch vorhanden ist (Makro-Sudanische SAuxOVX-Sprachen), oder sie weisen eine Alternation zwischen SVO und SAuxOV auf (Kru-Sprachen; V2 mit zugrundeliegender Verbfinalität als Zweifelsfall). In den SVO–SAuxOV-Sprachen bewegen sich sowohl Hilfsverben als auch lexikalische Verben. Somit zeigt das Südsamische, dass eine sonst nur für VO-Sprachen bekannte parametrische Unterscheidung auch für OV-Sprachen gilt: der weithin bekannte Unterschied zwischen VO-Sprachen wie Englisch und Französisch, ob Verbbewegung auf Hilfsverben beschränkt ist. SAuxOV-Sprachen bilden insgesamt eine Ausnahme unter den OV-Sprachen, aber sie sind durch das Vorhandensein des EPP vereint. Wortstellungsvariabilität beschränkt sich in verbfinalen Sprachen nicht auf die präverbale Domäne. Die meisten verbfinalen Sprachen weisen postverbale Elemente (PVE) auf. PVE stellen den Status der Verbfinalität infrage. Strikt verbfinale Sprachen ohne jegliche satzinterne PVE sind jedoch selten. Diese Dissertation stellt zum ersten Mal eine strukturelle und deskriptive PVE-Typologie vor. Verbfinale Sprachen variieren in den Kategorien, die sie als PVE zulassen. Das Zulassen von nicht-oblike PVE ist eine entscheidende Schwelle: Wenn nicht-oblike PVE erlaubt sind, können PVE für informationsstrukturelle Effekte verwendet werden. Viele areal und genetisch nicht verwandte Sprachen erlauben nur gegebene PVE, unterscheiden sich jedoch darin, ob die PVE kontrastiv kontrastiv sein können. In diesen Sprachen steht die Verbfinalität nicht zur Debatte, da verbmediale Ordnungen nicht neutral sind. Im Gegensatz dazu erlauben die uralischen Sprachen Estnisch und Udmurtisch jede Art von PVE, einschließlich Informationsfoki. Verbmediale Stellungen können dort also in denselben Kontexten wie verbfinale Stellungen verwendet werden, ohne dass es zu semantischen und pragmatischen Unterschieden kommt. Hier kann also die Rede von tatsächlicher freier Variation in der Verbstellung sein. Die zugrunde liegende Verbfinalität des Estnischen und Udmurtischen kann nur mithilfe einer Reihe syntaktischer Tests abgeleitet werden, die auf optionale Verbbewegung in beiden Sprachen hinweisen. Insgesamt ist es nicht möglich, PVE mit einer einheitlichen Analyse zu erfassen: Merger nach rechts, linksgerichtete Verbbewegung und rechtsgerichtete Phrasenbewegung sind erforderlich, um die inter- und intralinguistische Variation zu erfassen. Zu wissen, dass eine Sprache verbfinal ist, erlaubt keine unfehlbaren Schlüsse über die Wortstellungsvariabilität in dieser Sprache. Es gibt Muster der Homogenität, wie die durch unmittelbar präverbalen Fokus und die Gegebenheit postverbaler Elemente getriebene Wortstellungsvariabilität. Diese Muster ergeben sich aber nicht allein aus der Verbfinalität. Die präverbale Wortstellungsvariabilität wird durch die abstraktere Eigenschaft der obligatorischen Subjektbewegung (EPP) bestimmt. Was die Möglichkeiten postverbaler Wortstellungsvariabilität bestimmt muss künftig ermittelt werden. KW - Uralic languages KW - syntax KW - word order KW - information structure KW - verb-final languages KW - uralische Sprachen KW - Syntax KW - Informationsstruktur KW - Wortstellung KW - verbfinale Sprachen Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-643636 ER - TY - THES A1 - De Cesare, Ilaria T1 - Word order variability and change in German infinitival complements T1 - Variation und Wandel in der Stellung deutscher Infinitivkomplemente BT - a multi-causal approach BT - ein multikausaler Ansatz N2 - The present work deals with the variation in the linearisation of German infinitival complements from a diachronic perspective. Based on the observation that in present-day German the position of infinitival complements is restricted by properties of the matrix verb (Haider, 2010, Wurmbrand, 2001), whereas this appears much more liberal in older stages of German (Demske, 2008, Maché and Abraham, 2011, Demske, 2015), this dissertation investigates the emergence of those restrictions and the factors that have led to a reduced, yet still existing variability. The study contrasts infinitival complements of two types of matrix verbs, namely raising and control verbs. In present-day German, these show different syntactic behaviour and opposite preferences as far as the position of the infinitive is concerned: while infinitival complements of raising verbs build a single clausal domain with the with the matrix verb and occur obligatorily intraposed, infinitive complements of control verbs can form clausal constituents and occur predominantly extraposed. This correlation is not attested in older stages of German, at least not until Early New High German. Drawing on diachronic corpus data, the present work provides a description of the changes in the linearisation of infinitival complements from Early New High German to present-day German which aims at finding out when the correlation between infinitive type and word order emerged and further examines their possible causes. The study shows that word order change in German infinitival complements is not a case of syntactic change in the narrow sense, but that the diachronic variation results from the interaction of different language-internal and language-external factors and that it reflects, on the one hand, the influence of language modality on the emerging standard language and, on the other hand, a process of specialisation. N2 - Diese Arbeit befasst sich mit der Variation in der Linearisierung von deutschen Infinitivkomplementen aus diachroner Perspektive. Ausgehend von der Beobachtung, dass im Gegenwartsdeutschen die Stellung von Infinitivkomplementen durch Eigenschaften des Matrixverbs eingeschränkt wird (Haider, 2010, Wurmbrand, 2001), während diese in älteren Sprachstufen des Deutschen viel liberaler erscheint (Demske, 2008, Maché und Abraham, 2011, Demske, 2015), untersucht die vorliegende Dissertation die Entstehung solcher Beschränkungen und die Faktoren, die zu einer reduzierten, jedoch noch bestehenden Variation geführt haben. In der Untersuchung werden die Wortstellungseigenschaften von Infinitivkomplementen gegenübergestellt, die von zwei Typen von Matrixverben eingebettet werden, nämlich Anhebungs- und Kontrollverben. Diese zeigen im Gegenwartsdeutschen ein unterschiedliches syntaktisches Verhalten und entgegengesetzte Präferenzen, was die Stellung des Infinitivs betrifft: Während Infinitivkomplemente von Anhebungsverben einen Verbalkomplex mit dem Matrixverb bilden und obligatorisch intraponiert vorkommen, bilden Infinitivkomplemente von Kontrollverben sententiale Konstituenten und kommen überwiegend extraponiert vor. In älteren Sprachstufen des Deutschen konnte diese Korrelation bis ins Frühneuhochdeutsche nicht festgestellt werden. Neben einer empirisch fundierten Beschreibung des Wortstellungswandels von Infinitivkomplementen, die darauf abzielt, den Zeitpunkt der Entstehung dieser Korrelation zu identifizieren, werden in der Arbeit mögliche Faktoren und Gründe untersucht, die zu diesen Präferenzen geführt haben. Die Arbeit zeigt, dass der Worstellungswandel in deutschen Infinitivkomplementen nicht dem syntaktischen Wandel im engeren Sinne zuzuordnen ist, sondern dass die diachrone Variation auf einem Zusammenspiel von verschiedenen sprachinternen und sprachexternen Faktoren beruht. Es wird dafür argumentiert, dass sich die diachrone Distribution der Wortstellungsmuster zum einen durch den Einfluss von Medialität auf die Entstehung der Standardsprache, zum anderen durch einen Prozess der Spezialisierung erklären lässt. KW - infinitival complements KW - syntactic change KW - Early New High German KW - quantitative historical linguistics KW - corpus study KW - Infinitivkomplemente KW - syntaktischer Wandel KW - Frühneuhochdeutsch KW - quantitative historische Linguistik KW - Korpusstudie Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-527358 ER - TY - THES A1 - Skopeteas, Stavros T1 - Word oder and information structure: empirical methods for linguistic fieldwork Y1 - 2009 CY - Potsdam ER - TY - THES A1 - Ermeydan, Mahmut Ali T1 - Wood cell wall modification with hydrophobic molecules T1 - Modifikation von Holzzellwänden durch hydrophobe Moleküle N2 - Wood is used for many applications because of its excellent mechanical properties, relative abundance and as it is a renewable resource. However, its wider utilization as an engineering material is limited because it swells and shrinks upon moisture changes and is susceptible to degradation by microorganisms and/or insects. Chemical modifications of wood have been shown to improve dimensional stability, water repellence and/or durability, thus increasing potential service-life of wood materials. However current treatments are limited because it is difficult to introduce and fix such modifications deep inside the tissue and cell wall. Within the scope of this thesis, novel chemical modification methods of wood cell walls were developed to improve both dimensional stability and water repellence of wood material. These methods were partly inspired by the heartwood formation in living trees, a process, that for some species results in an insertion of hydrophobic chemical substances into the cell walls of already dead wood cells, In the first part of this thesis a chemistry to modify wood cell walls was used, which was inspired by the natural process of heartwood formation. Commercially available hydrophobic flavonoid molecules were effectively inserted in the cell walls of spruce, a softwood species with low natural durability, after a tosylation treatment to obtain “artificial heartwood”. Flavonoid inserted cell walls show a reduced moisture absorption, resulting in better dimensional stability, water repellency and increased hardness. This approach was quite different compared to established modifications which mainly address hydroxyl groups of cell wall polymers with hydrophilic substances. In the second part of the work in-situ styrene polymerization inside the tosylated cell walls was studied. It is known that there is a weak adhesion between hydrophobic polymers and hydrophilic cell wall components. The hydrophobic styrene monomers were inserted into the tosylated wood cell walls for further polymerization to form polystyrene in the cell walls, which increased the dimensional stability of the bulk wood material and reduced water uptake of the cell walls considerably when compared to controls. In the third part of the work, grafting of another hydrophobic and also biodegradable polymer, poly(ɛ-caprolactone) in the wood cell walls by ring opening polymerization of ɛ-caprolactone was studied at mild temperatures. Results indicated that polycaprolactone attached into the cell walls, caused permanent swelling of the cell walls up to 5%. Dimensional stability of the bulk wood material increased 40% and water absorption reduced more than 35%. A fully biodegradable and hydrophobized wood material was obtained with this method which reduces disposal problem of the modified wood materials and has improved properties to extend the material’s service-life. Starting from a bio-inspired approach which showed great promise as an alternative to standard cell wall modifications we showed the possibility of inserting hydrophobic molecules in the cell walls and supported this fact with in-situ styrene and ɛ-caprolactone polymerization into the cell walls. It was shown in this thesis that despite the extensive knowledge and long history of using wood as a material there is still room for novel chemical modifications which could have a high impact on improving wood properties. N2 - Der nachwachsende Rohstoff Holz wird aufgrund seiner guten mechanischen Eigenschaften und der leichten Verfügbarkeit für viele Anwendungszwecke genutzt. Quellen und Schrumpfen bei Feuchtigkeitsänderungen des hygroskopischen Werkstoffs Holz limitieren jedoch die Einsatzmöglichkeiten. Ein weiteres Problem stellt der mitunter leichte Abbau – u.a. bei feuchtem Holz - durch Mikroorganismen und/oder Insekten dar. Durch chemische Modifizierungen können die Dimensionsstabilität, die Hydrophobizität und die Dauerhaftigkeit verbessert und damit die potentielle Lebensdauer des Werkstoffes erhöht werden. Dabei ist die dauerhafte Modifikation der Zellwand nur äußerst schwer realisierbar. Inspiriert von der Kernholzbildung in lebenden Bäumen, ein zellwandverändernder Prozess, der Jahre nach der Holzbildung erfolgt, wurden im Rahmen dieser Arbeit neue Ansätze zur chemischen Modifizierung der Zellwände entwickelt, um die Dimensionsstabilität und Hydrophobizität zu erhöhen. Der erste Teil der Arbeit ist stark vom Prozess der Kernholzbildung inspiriert, eine abgeleitete Chemie wurde verwendet, um die Zellwände von Fichte, einem Nadelholz von geringer natürlicher Dauerhaftigkeit, zu modifizieren. Kommerziell verfügbare hydrophobe Flavonoide wurden nach einem Tosylierungsschritt erfolgreich in die Zellwand eingebracht, um so „artifizielles Kernholz“ zu erzeugen. Die modifizierten Holzproben zeigten eine verringerte Wasseraufnahme, die zu erhöhter Dimensionsstabilität und Härte führte. Dieser Ansatz unterscheidet sich grundlegend von bereits etablierten Modifikationen, die hauptsächlich hypdrophile Substanzen an die Hydroxylgruppen der Zellwand anlagern. Der zweite Teil der Arbeit beschäftigt sich mit der Polymerisation von Styren in tosylierten Zellwänden. Es ist bekannt, dass es nur eine schwache Adhäsion zwischen den hydrophoben Polymeren und den hydrophilen Zellwandkomponenten gibt. Die hydrophoben Styren-Monomere wurden in die tosylierte Zellwand eingebracht und zu Polystyren polymerisiert. Wie bei der Modifikation mit Flavonoiden konnte eine erhöhte Dimensionsstabilität und reduzierte Wasseraufnahme der Zellwände beobachtet werden. Im dritten Teil der Arbeit wurde das biologisch abbaubare, hydrophobe poly(ɛ-caprolacton) in der Zellwand aufpolymerisiert. Die Ergebnisse deuten darauf hin, dass Polycaprolacton in der Zellwand gebunden ist und zu einer permanenten Quellung führt (bis zu 5 %). Die Dimensionsstabilität nahm um 40 % zu und die Wasseraufnahmerate konnte um mehr als 35 % reduziert werden. Mit dieser Methode kann nicht nur dimensionsstabileres Holz realisiert werden, auch biologische Abbaubarkeit und damit eine einfache Entsorgung sind gewährleistest. KW - Holzmodifikation KW - hydrophobe Moleküle KW - Dimensionsstabilität KW - Wassergehalt KW - wood modification KW - hydrophobic molecules KW - dimensional stability KW - moisture content Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71325 ER - TY - THES A1 - Arf, Shelan Ali T1 - Women’s everyday reality of social insecurity T1 - Soziale Unsicherheit als alltägliche Realität für geschiedene Frauen in Irakisch-Kurdistan BT - the case of divorced women in Iraqi Kurdistan N2 - Since 1980 Iraq passed through various wars and conflicts including Iraq-Iran war, Saddam Hussein’s the Anfals and Halabja campaigns against the Kurds and the killing campaigns against Shiite in 1986, Saddam Hussein’s invasion of Kuwait in August 1990, the Gulf war in 1990, Iraq war in 2003 and the fall of Saddam, the conflicts and chaos in the transmission of power after the death of Saddam, and the war against ISIS . All these wars left severe impacts in most households in Iraq; on women and children in particular. The consequences of such long wars could be observed in all sectors including economic, social, cultural and religious sectors. The social structure, norms and attitudes are intensely affected. Many women specifically divorced women found them-selves in challenging different difficulties such as social as well as economic situations. Thus the divorced women in Iraqi Kurdistan are the focus of this research. Considering the fact that there is very few empirical researches on this topic, a constructivist grounded theory methodology (CGT) is viewed as reliable in order to come up with a comprehensive picture about the everyday life of divorced women in Iraqi Kurdistan. Data collected in Sulaimani city in Iraqi Kurdistan. The work of Kathy Charmaz was chosen to be the main methodological context of the research and the main data collection method was individual intensive narrative interviews with divorced women. Women generally and divorced women specifically in Iraqi Kurdistan are living in a patriarchal society that passing through many changes due to the above mentioned wars among many other factors. This research is trying to study the everyday life of divorced women in such situations and the forms of social insecurity they are experiencing. The social institutions starting from the family as a very significant institution for women to the governmental and non-governmental institutions that are working to support women, and the copying strategies, are in focus in this research. The main research argument is that the family is playing ambivalent roles in divorced women’s life. For instance, on one side families are revealed to be an essential source of security to most respondents, on the other side families posed also many threats and restrictions on those women. This argument supported by what called by Suad joseph "the paradox of support and suppression" . Another important finding is that the stat institution(laws , constitutions ,Offices of combating violence against woman and family) are supporting women somehow and offering them protection from the insecurities but it is clear that the existence of the laws does not stop the violence against women in Iraqi Kurdistan, As explained by Pateman because the laws /the contract is a sexual-social contract that upholds the sex rights of males and grants them more privileges than females. The political instability, Tribal social norms also play a major role in influencing the rule of law. It is noteworthy to refer that analyzing the interviews in this research showed that in spite that divorced women living in insecurities and facing difficulties but most of the respondents try to find a coping strategies to tackle difficult situations and to deal with the violence they face; these strategies are bargaining, sometimes compromising or resisting …etc. Different theories used to explain these coping strategies such as bargaining with patriarchy. Kandiyoti who stated that women living under certain restraints struggle to find way and strategies to enhance their situations. The research finding also revealed that the western liberal feminist view of agency is limited this is agree with Saba Mahmood and what she explained about Muslim women agency. For my respondents, who are divorced women, their agency reveals itself in different ways, in resisting or compromising with or even obeying the power of male relatives, and the normative system in the society. Agency is also explained the behavior of women contacting formal state institutions in cases of violence like the police or Offices of combating violence against woman and family. N2 - Irakisch-Kurdistan ist ein von Konflikten geprägtes Land. Diese haben tiefgreifende soziale, kulturelle, ökonomische und religiöse Folgen. Insbesondere geschiedene Frauen finden sich oft in herausfordernden Situationen. Aufgrund des Mangels an empirischen Analysen wendet diese Studie Grounded Theory an, um sich mit dem Alltag von geschiedenen Frauen in Iraqi Kurdistan zu beschäftigen. Hierbei wird besonders auf Themen sie soziale Sicherheit, agency, Verhandlungs- und Widerstandsstrategien eingegangen. KW - divorced women KW - Iraqi Kurdistan KW - geschiedene Frauen KW - Irakisch-Kurdistan Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-434333 ER - TY - THES A1 - Wittenberg, Eva T1 - With Light Verb Constructions from Syntax to Concepts T1 - Mit Funktionsverbgefügen von der Syntax zur konzeptuellen Struktur N2 - This dissertation uses a common grammatical phenomenon, light verb constructions (LVCs) in English and German, to investigate how syntax-semantics mapping defaults influence the relationships between language processing, representation and conceptualization. LVCs are analyzed as a phenomenon of mismatch in the argument structure. The processing implication of this mismatch are experimentally investigated, using ERPs and a dual task. Data from these experiments point to an increase in working memory. Representational questions are investigated using structural priming. Data from this study suggest that while the syntax of LVCs is not different from other structures’, the semantics and mapping are represented differently. This hypothesis is tested with a new categorization paradigm, which reveals that the conceptual structure that LVC evoke differ in interesting, and predictable, ways from non-mismatching structures’. N2 - Diese Dissertation untersucht mittels psycho- und neurolinguistischer Experimente, wie deutsche und englische Funktionsverbgefüge (’light verb constructions’) mental repräsentiert und verarbeitet werden. Funktionsverbgefüge sind Konstruktionen wie einen Kuss geben, in denen die Semantik überwiegend durch die Nominalisierung Kuss geliefert wird, während das Funktionsverb geben lediglich den syntaktischen Rahmen und grammatische Marker, aber nur wenige Bedeutungsaspekte beiträgt. T3 - Potsdam Cognitive Science Series - 7 KW - light verb constructions KW - syntax KW - semantics KW - event-related potential KW - priming KW - Syntax KW - Semantik KW - Sprachverarbeitung KW - Funktionsverbgefüge KW - Priming Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82361 SN - 978-3-86956-329-9 SN - 2190-4545 SN - 2190-4553 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Afifi, Haitham T1 - Wireless In-Network Processing for Multimedia Applications T1 - Drahtlose In-Network-Verarbeitung für Multimedia-Anwendungen N2 - With the recent growth of sensors, cloud computing handles the data processing of many applications. Processing some of this data on the cloud raises, however, many concerns regarding, e.g., privacy, latency, or single points of failure. Alternatively, thanks to the development of embedded systems, smart wireless devices can share their computation capacity, creating a local wireless cloud for in-network processing. In this context, the processing of an application is divided into smaller jobs so that a device can run one or more jobs. The contribution of this thesis to this scenario is divided into three parts. In part one, I focus on wireless aspects, such as power control and interference management, for deciding which jobs to run on which node and how to route data between nodes. Hence, I formulate optimization problems and develop heuristic and meta-heuristic algorithms to allocate wireless and computation resources. Additionally, to deal with multiple applications competing for these resources, I develop a reinforcement learning (RL) admission controller to decide which application should be admitted. Next, I look into acoustic applications to improve wireless throughput by using microphone clock synchronization to synchronize wireless transmissions. In the second part, I jointly work with colleagues from the acoustic processing field to optimize both network and application (i.e., acoustic) qualities. My contribution focuses on the network part, where I study the relation between acoustic and network qualities when selecting a subset of microphones for collecting audio data or selecting a subset of optional jobs for processing these data; too many microphones or too many jobs can lessen quality by unnecessary delays. Hence, I develop RL solutions to select the subset of microphones under network constraints when the speaker is moving while still providing good acoustic quality. Furthermore, I show that autonomous vehicles carrying microphones improve the acoustic qualities of different applications. Accordingly, I develop RL solutions (single and multi-agent ones) for controlling these vehicles. In the third part, I close the gap between theory and practice. I describe the features of my open-source framework used as a proof of concept for wireless in-network processing. Next, I demonstrate how to run some algorithms developed by colleagues from acoustic processing using my framework. I also use the framework for studying in-network delays (wireless and processing) using different distributions of jobs and network topologies. N2 - Mit der steigenden Anzahl von Sensoren übernimmt Cloud Computing die Datenverarbeitung vieler Anwendungen. Dies wirft jedoch viele Bedenken auf, z. B. in Bezug auf Datenschutz, Latenzen oder Fehlerquellen. Alternativ und dank der Entwicklung eingebetteter Systeme können drahtlose intelligente Geräte für die lokale Verarbeitung verwendet werden, indem sie ihre Rechenkapazität gemeinsam nutzen und so eine lokale drahtlose Cloud für die netzinterne Verarbeitung schaffen. In diesem Zusammenhang wird eine Anwendung in kleinere Aufgaben unterteilt, so dass ein Gerät eine oder mehrere Aufgaben ausführen kann. Der Beitrag dieser Arbeit zu diesem Szenario gliedert sich in drei Teile. Im ersten Teil konzentriere ich mich auf drahtlose Aspekte wie Leistungssteuerung und Interferenzmanagement um zu entscheiden, welche Aufgaben auf welchem Knoten ausgeführt werden sollen und wie die Daten zwischen den Knoten weitergeleitet werden sollen. Daher formuliere ich Optimierungsprobleme und entwickle heuristische und metaheuristische Algorithmen zur Zuweisung von Ressourcen eines drahtlosen Netzwerks. Um mit mehreren Anwendungen, die um diese Ressourcen konkurrieren, umgehen zu können, entwickle ich außerdem einen Reinforcement Learning (RL) Admission Controller, um zu entscheiden, welche Anwendung zugelassen werden soll. Als Nächstes untersuche ich akustische Anwendungen zur Verbesserung des drahtlosen Durchsatzes, indem ich Mikrofon-Taktsynchronisation zur Synchronisierung drahtloser Übertragungen verwende. Im zweiten Teil arbeite ich mit Kollegen aus dem Bereich der Akustikverarbeitung zusammen, um sowohl die Netzwerk- als auch die Anwendungsqualitäten (d.h. die akustischen) zu optimieren. Mein Beitrag konzentriert sich auf den Netzwerkteil, wo ich die Beziehung zwischen akustischen und Netzwerkqualitäten bei der Auswahl einer Teilmenge von Mikrofonen für die Erfassung von Audiodaten oder der Auswahl einer Teilmenge von optionalen Aufgaben für die Verarbeitung dieser Daten untersuche; zu viele Mikrofone oder zu viele Aufgaben können die Qualität durch unnötige Verzögerungen verringern. Daher habe ich RL-Lösungen entwickelt, um die Teilmenge der Mikrofone unter Netzwerkbeschränkungen auszuwählen, wenn sich der Sprecher bewegt, und dennoch eine gute akustische Qualität gewährleistet. Außerdem zeige ich, dass autonome Fahrzeuge, die Mikrofone mit sich führen, die akustische Qualität verschiedener Anwendungen verbessern. Dementsprechend entwickle ich RL-Lösungen (Einzel- und Multi-Agenten-Lösungen) für die Steuerung dieser Fahrzeuge. Im dritten Teil schließe ich die Lücke zwischen Theorie und Praxis. Ich beschreibe die Eigenschaften meines Open-Source-Frameworks, das als Prototyp für die drahtlose netzinterne Verarbeitung verwendet wird. Anschließend zeige ich, wie einige Algorithmen, die von Kollegen aus der Akustikverarbeitung entwickelt wurden, mit meinem Framework ausgeführt werden können. Außerdem verwende ich das Framework für die Untersuchung von netzinternen Verzögerungen unter Verwendung verschiedener Aufgabenverteilungen und Netzwerktopologien. KW - wireless networks KW - reinforcement learning KW - network optimization KW - Netzoptimierung KW - bestärkendes Lernen KW - drahtloses Netzwerk Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-604371 ER - TY - THES A1 - Siegmund, Nicole T1 - Wind driven soil particle uptake Quantifying drivers of wind erosion across the particle size spectrum T1 - Partikelaufwirbelung durch Wind - Über die Quantifizierung von Winderosion über das ganze Partikel-Größenspektrum N2 - Among the multitude of geomorphological processes, aeolian shaping processes are of special character, Pedogenic dust is one of the most important sources of atmospheric aerosols and therefore regarded as a key player for atmospheric processes. Soil dust emissions, being complex in composition and properties, influence atmospheric processes and air quality and has impacts on other ecosystems. In this because even though their immediate impact can be considered low (exceptions exist), their constant and large-scale force makes them a powerful player in the earth system. dissertation, we unravel a novel scientific understanding of this complex system based on a holistic dataset acquired during a series of field experiments on arable land in La Pampa, Argentina. The field experiments as well as the generated data provide information about topography, various soil parameters, the atmospheric dynamics in the very lower atmosphere (4m height) as well as measurements regarding aeolian particle movement across a wide range of particle size classes between 0.2μm up to the coarse sand. The investigations focus on three topics: (a) the effects of low-scale landscape structures on aeolian transport processes of the coarse particle fraction, (b) the horizontal and vertical fluxes of the very fine particles and (c) the impact of wind gusts on particle emissions. Among other considerations presented in this thesis, it could in particular be shown, that even though the small-scale topology does have a clear impact on erosion and deposition patterns, also physical soil parameters need to be taken into account for a robust statistical modelling of the latter. Furthermore, specifically the vertical fluxes of particulate matter have different characteristics for the particle size classes. Finally, a novel statistical measure was introduced to quantify the impact of wind gusts on the particle uptake and its application on the provided data set. The aforementioned measure shows significantly increased particle concentrations during points in time defined as gust event. With its holistic approach, this thesis further contributes to the fundamental understanding of how atmosphere and pedosphere are intertwined and affect each other. N2 - Unter der Vielzahl geomorphologischer Prozesse nehmen äolische Formgebungsprozesse eine besondere Stellung ein, denn obwohl ihre unmittelbaren Auswirkungen als gering einzuschätzen sind (Ausnahmen existieren), sind sie aufgrund ihrer konstanten und großen Kraft ein mächtiger Akteur im Erdsystem. Pedogener Staub ist eine der wichtigsten Quellen atmosphärischer Aerosole und kann daher als Schlüsselfaktor für atmosphärische Prozesse angesehen werden. Bodenstaubemissionen, die in Zusammensetzung und Eigenschaften komplex sind, beeinflussen atmosphärische Prozesse und Luftqualität und haben Auswirkungen auf andere Ökosysteme. Um zum wissenschaftlichen Verständnis dieses komplexen Systems beizutragen, dokumentiert diese Arbeit eine Reihe von Veröffentlichungen, die alle auf einem ganzheitlichen Datensatz basieren, die während einer Reihe von Feldexperimenten auf Ackerland in La Pampa, Argentinien, gewonnen wurden. Die Feldexperimente sowie die generierten Daten liefern Informationen über Topographie, verschiedene Bodenparameter, die atmosphärische Dynamik in der unteren Atmosphäre (4 m Höhe) sowie Messungen zur äolischen Partikelbewegung über einen weiten Bereich von Partikelgrößenklassen zwischen 0,2μm und groben Sand. Die Untersuchungen konzentrieren sich auf drei Themen: Die Auswirkungen kleinräumiger Landschaftsstrukturen auf äolische Transportprozesse der groben Partikelfraktion, die horizontalen und vertikalen Strömungen der sehr feinen Partikel und der Einfluss von Windböen auf die Partikelemissionen. Neben anderen in dieser Arbeit vorgestellten Überlegungen konnte insbesondere gezeigt werden, dass, obwohl die kleinräumige Topologie einen deutlichen Einfluss auf Erosions- und Ablagerungsmuster hat, auch physikalische Bodenparameter für eine robuste statistische Modellierung berücksichtigt werden müssen. Darüber hinaus weisen speziell die vertikalen Feinstaubflüsse unterschiedliche Eigenschaften für die Partikelgrößenklassen auf. Schließlich wurde ein neuartiges statistisches Maß eingeführt, um den Einfluss von Windböen auf die Partikelkonzentration der Luft zu quantifizieren, und seine Anwendung auf den bereitgestellten Datensatz zeigt signifikant erhöhte Partikelkonzentrationen zu Zeitpunkten, die als Böen definiert wurden. Mit ihrem ganzheitlichen Ansatz trägt diese Arbeit weiter zum grundlegenden Verständnis bei, wie Atmosphäre und Pedosphäre miteinander verflochten sind und sich gegenseitig beeinflussen. KW - Winderosion KW - winderosion KW - PM10, PM2, PM1 KW - Horizontal flux KW - horizontaler Fluss KW - Vertical flux KW - vertikaler Fluss KW - Argentina KW - Argentinien KW - wind gusts KW - Windböen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-574897 ER - TY - THES A1 - Loll, Renate T1 - Wilson loop and discrete lattice methods in quantum gauge and gravitational theories Y1 - 1997 ER - TY - THES A1 - Meyn, Andrea T1 - Wildfire-climate relationships : conceptual model and regional-scale analyses Y1 - 2010 CY - Potsdam ER - TY - THES A1 - Haarmann, Stephan T1 - WICKR: A Joint Semantics for Flexible Processes and Data N2 - Knowledge-intensive business processes are flexible and data-driven. Therefore, traditional process modeling languages do not meet their requirements: These languages focus on highly structured processes in which data plays a minor role. As a result, process-oriented information systems fail to assist knowledge workers on executing their processes. We propose a novel case management approach that combines flexible activity-centric processes with data models, and we provide a joint semantics using colored Petri nets. The approach is suited to model, verify, and enact knowledge-intensive processes and can aid the development of information systems that support knowledge work. Knowledge-intensive processes are human-centered, multi-variant, and data-driven. Typical domains include healthcare, insurances, and law. The processes cannot be fully modeled, since the underlying knowledge is too vast and changes too quickly. Thus, models for knowledge-intensive processes are necessarily underspecified. In fact, a case emerges gradually as knowledge workers make informed decisions. Knowledge work imposes special requirements on modeling and managing respective processes. They include flexibility during design and execution, ad-hoc adaption to unforeseen situations, and the integration of behavior and data. However, the predominantly used process modeling languages (e.g., BPMN) are unsuited for this task. Therefore, novel modeling languages have been proposed. Many of them focus on activities' data requirements and declarative constraints rather than imperative control flow. Fragment-Based Case Management, for example, combines activity-centric imperative process fragments with declarative data requirements. At runtime, fragments can be combined dynamically, and new ones can be added. Yet, no integrated semantics for flexible activity-centric process models and data models exists. In this thesis, Wickr, a novel case modeling approach extending fragment-based Case Management, is presented. It supports batch processing of data, sharing data among cases, and a full-fledged data model with associations and multiplicity constraints. We develop a translational semantics for Wickr targeting (colored) Petri nets. The semantics assert that a case adheres to the constraints in both the process fragments and the data models. Among other things, multiplicity constraints must not be violated. Furthermore, the semantics are extended to multiple cases that operate on shared data. Wickr shows that the data structure may reflect process behavior and vice versa. Based on its semantics, prototypes for executing and verifying case models showcase the feasibility of Wickr. Its applicability to knowledge-intensive and to data-centric processes is evaluated using well-known requirements from related work. N2 - Traditionelle Prozessmodellierungssprachen sind auf hoch strukturierte Prozesse ausgelegt, in denen Daten nur eine Nebenrolle spielen. Sie eignen sich daher nicht für wissensintensive Prozesse, die flexibel und datengetrieben sind. Deshalb können prozessorientierte Informationssysteme Fachexperten nicht gänzlich unterstützen. Diese Arbeit beinhaltet eine neue Modellierungssprache, die flexible Prozessmodelle mit Datenmodellen kombiniert. Die Semantik dieser Sprache ist mittels gefärbten Petri-Netzen formal definiert. Wissensintensive Prozesse können so modelliert, verifiziert und ausgeführt werden. Wissensintensive Prozesse sind variantenreich und involvieren Fachexperten, die mit ihren Entscheidungen die Prozessausführung prägen. Typische Anwendungsbereiche sind das Gesundheitswesen, Rechtswesen und Versicherungen. Diese Prozesse können i.d.R. nicht vollständig spezifiziert werden, da das zugrundeliegende Wissen zu umfangreich ist und sich außerdem zu schnell verändert. Die genaue Reihenfolge der Aktivitäten wird erst durch die Fachexperten zur Laufzeit festgelegt. Deshalb erfordern dieser Prozesse Flexibilität sowohl zur Entwurfszeit wie zur Laufzeit, Daten und Verhalten müssen in enger Beziehung betrachtet werden. Zudem muss es möglich sein, den Prozess anzupassen, falls eine unvorhergesehene Situation eintreten. Etablierte Prozessmodellierungssprachen, wie z.B. BPMN, sind daher ungeeignet. Deshalb werden neue Sprachen entwickelt, in denen sich generell zwei Tendenzen beobachten lassen: ein Wechseln von imperativer zu deklarativer Modellierung und eine zunehmende Integration von Daten. Im Fragment-Basierten-Case-Management können imperative Prozessfragmente zur Laufzeit flexibel kombiniert werden, solange spezifizierten Datenanforderungen erfüllt sind. In dieser Arbeit wird Wickr vorgestellt. Dabei handelt es sich um eine Modellierungssprache, die das Fragment-Basierte-Case-Management erweitert. Wickr kombiniert Prozessfragmente mit einem Datenmodell inklusive Assoziationen und zwei Arten an Multiplizitätseinschränkungen: Die erste Art muss immer gelten, wohingegen die zweite nur am Ende eines Falls gelten muss. Zusätzlich unterstützt Wickr Stapelverarbeitung und Datenaustausch zwischen Fällen. Des Weiteren entwickeln wir eine translationale Semantik, die Wickr in gefärbte Petri-Netze übersetzt. Die Semantik berücksichtigt sowohl die Vorgaben des Prozessmodells wie auch die des Datenmodells. Die Semantik eignet sich nicht nur für die Beschreibung eines einzelnen Falls, sondern kann auch mehrere untereinander in Beziehung stehende Fälle abdecken. Durch Prototypen wird die Umsetzbarkeit von Wickr demonstriert und mittels bekannten Anforderungslisten die Einsatzmöglichkeit für wissensintensive und datengetriebene Prozesse evaluiert. T2 - Wickr: Eine gemeinsame Semantik für flexible Prozesse und Daten KW - Case Management KW - Business Process Management KW - Process Modeling KW - Data Modeling KW - Execution Semantics KW - Geschäftsprozessmanagement KW - Fallmanagement KW - Datenmodellierung KW - Ausführungssemantiken KW - Prozessmodellierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546137 ER - TY - THES A1 - Kroll, Alexander T1 - Why public managers use performance information : concepts, theory, and empirical analysis T1 - Warum Verwaltungsmanager Performance-Informationen nutzen : Konzepte, Theorien und Empirische Analyse N2 - Diese Dissertation untersucht die Verwendung von Performance-Informationen („Kennzahlen“) durch Führungskräfte in der öffentlichen Verwaltung. Unter „Verwendung“ wird dabei die zweckorientierte Nutzung der Daten verstanden, um zu steuern, zu lernen und öffentliche Leistungen zu verbessern. Die zentrale Frage der Arbeit lautet: Wie können Unterschiede bei der Verwendung von Performance-Informationen erklärt werden? Um diese Frage zu beantworten, wird die bereits existierende Literatur strukturiert ausgewertet. Forschungslücken werden aufgezeigt und eigene Ansätze vorgestellt, wie diese geschlossen werden können. Der erste Teil der Dissertation untersucht den Einfluss von Manager-bezogenen Faktoren auf die Nutzung von Performance-Daten, die bislang in der Forschung noch keine Berücksichtigung gefunden haben. Der zweite Abschnitt testet ein modifiziertes Modell aus der Psychologie, das auf der Annahme basiert, dass die Verwendung von Performance-Informationen ein bewusstes und durchdachtes Verhalten darstellt. Der dritte Teil untersucht, inwieweit sich die Erklärungen für die Nutzung von Performance-Informationen unterscheiden, wenn wir diese nicht nur als Kennzahlen definieren, sondern ebenfalls andere Quellen von „unsystematischem“ Feedback berücksichtigen. Die empirischen Ergebnisse der Arbeit basieren auf einer Umfrage aus dem Jahr 2011. Im Rahmen dieses Surveys habe ich die mittleren Manager (Amtsleiter und Fachbereichsleiter) aus acht ausgewählten Bereichen aller kreisfreien Städte in Deutschland befragt (n=954). Zur Auswertung der Daten wurden die Verfahren Faktorenanalyse, Multiple Regressionsanalyse und Strukturgleichungsmodellierung eingesetzt. Meine Forschung förderte unter anderem vier Erkenntnisse zu Tage, die durch ähnliche Befunde der verschiedenen Teile der Dissertation abgesichert sind: 1) Die Verwendung von Performance-Daten kann als bewusstes Verhalten von Führungskräften modelliert werden, das durch deren Einstellung sowie durch die Einstellung ihres sozialen Umfeldes bestimmt wird. 2) Häufige Nutzer von Performance-Informationen zeigen überraschenderweise keine generelle Präferenz für das abstrakt-analytische Verarbeiten von Informationen. Stattdessen bevorzugen sie, Informationen durch persönliche Interaktionen aufzunehmen. 3) Manager, die sich früh im Rahmen der Ermittlung von Performance-Informationen engagieren, nutzen diese später auch häufiger, um Entscheidungen zu treffen. 4) Performance-Berichte sind nur eine Informationsquelle unter vielen. Verwaltungsmanager präferieren verbales Feedback von Insidern sowie das Feedback von wichtigen externen Stakeholdern gegenüber systematischen Performance-Daten. Die Dissertation erklärt diese Befunde theoretisch und verdeutlicht deren Implikationen für Theorie und Praxis. N2 - The dissertation examines the use of performance information by public managers. “Use” is conceptualized as purposeful utilization in order to steer, learn, and improve public services. The main research question is: Why do public managers use performance information? To answer this question, I systematically review the existing literature, identify research gaps and introduce the approach of my dissertation. The first part deals with manager-related variables that might affect performance information use but which have thus far been disregarded. The second part models performance data use by applying a theory from social psychology which is based on the assumption that this management behavior is conscious and reasoned. The third part examines the extent to which explanations of performance information use vary if we include others sources of “unsystematic” feedback in our analysis. The empirical results are based on survey data from 2011. I surveyed middle managers from eight selected divisions of all German cities with county status (n=954). To analyze the data, I used factor analysis, multiple regression analysis, and structural equation modeling. My research resulted in four major findings: 1) The use of performance information can be modeled as a reasoned behavior which is determined by the attitude of the managers and of their immediate peers. 2) Regular users of performance data surprisingly are not generally inclined to analyze abstract data but rather prefer gathering information through personal interaction. 3) Managers who take on ownership of performance information at an early stage in the measurement process are also more likely to use this data when it is reported to them. 4) Performance reports are only one source of information among many. Public managers prefer verbal feedback from insiders and feedback from external stakeholders over systematic performance reports. The dissertation explains these findings using a deductive approach and discusses their implications for theory and practice. KW - Performance KW - Datenverwendung KW - Performance-Informationen KW - Performance Management KW - performance KW - data use KW - performance information KW - performance management Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59795 ER - TY - THES A1 - Verch, Ronald T1 - Whole-body electrical muscle stimulation superimposed walking as training tool in the management of type 2 diabetes mellitus T1 - Elektrische Ganzkörpermuskelstimulation überlagertes Gehen als Trainingsinstrument bei der Behandlung von Diabetes mellitus Typ 2 N2 - Background: The worldwide prevalence of diabetes has been increasing in recent years, with a projected prevalence of 700 million patients by 2045, leading to economic burdens on societies. Type 2 diabetes mellitus (T2DM), representing more than 95% of all diabetes cases, is a multifactorial metabolic disorder characterized by insulin resistance leading to an imbalance between insulin requirements and supply. Overweight and obesity are the main risk factors for developing type 2 diabetes mellitus. The lifestyle modification of following a healthy diet and physical activity are the primary successful treatment and prevention methods for type 2 diabetes mellitus. Problems may exist with patients not achieving recommended levels of physical activity. Electrical muscle stimulation (EMS) is an increasingly popular training method and has become in the focus of research in recent years. It involves the external application of an electric field to muscles, which can lead to muscle contraction. Positive effects of EMS training have been found in healthy individuals as well as in various patient groups. New EMS devices offer a wide range of mobile applications for whole-body electrical muscle stimulation (WB-EMS) training, e.g., the intensification of dynamic low-intensity endurance exercises through WB-EMS. This dissertation project aims to investigate whether WB-EMS is suitable for intensifying low-intensive dynamic exercises such as walking and Nordic walking. Methods: Two independent studies were conducted. The first study aimed to investigate the reliability of exercise parameters during the 10-meter Incremental Shuttle Walk Test (10MISWT) using superimposed WB-EMS (research question 1, sub-question a) and the difference in exercise intensity compared to conventional walking (CON-W, research question 1, sub-question b). The second study aimed to compare differences in exercise parameters between superimposed WB-EMS (WB-EMS-W) and conventional walking (CON-W), as well as between superimposed WB-EMS (WB-EMS-NW) and conventional Nordic walking (CON-NW) on a treadmill (research question 2). Both studies took place in participant groups of healthy, moderately active men aged 35-70 years. During all measurements, the Easy Motion Skin® WB-EMS low frequency stimulation device with adjustable intensities for eight muscle groups was used. The current intensity was individually adjusted for each participant at each trial to ensure safety, avoiding pain and muscle cramps. In study 1, thirteen individuals were included for each sub question. A randomized cross-over design with three measurement appointments used was to avoid confounding factors such as delayed onset muscle soreness. The 10MISWT was performed until the participants no longer met the criteria of the test and recording five outcome measures: peak oxygen uptake (VO2peak), relative VO2peak (rel.VO2peak), maximum walk distance (MWD), blood lactate concentration, and the rate of perceived exertion (RPE). Eleven participants were included in study 2. A randomized cross-over design in a study with four measurement appointments was used to avoid confounding factors. A treadmill test protocol at constant velocity (6.5 m/s) was developed to compare exercise intensities. Oxygen uptake (VO2), relative VO2 (rel.VO2) blood lactate, and the RPE were used as outcome variables. Test-retest reliability between measurements was determined using a compilation of absolute and relative measures of reliability. Outcome measures in study 2 were studied using multifactorial analyses of variances. Results: Reliability analysis showed good reliability for VO2peak, rel.VO2peak, MWD and RPE with no statistically significant difference for WB-EMS-W during 10WISWT. However, differences compared to conventional walking in outcome variables were not found. The analysis of the treadmill tests showed significant effects for the factors CON/WB-EMS and W/NW for the outcome variables VO2, rel.VO2 and lactate, with both factors leading to higher results. However, the difference in VO2 and relative VO2 is within the range of biological variability of ± 12%. The factor combination EMS∗W/NW is statistically non-significant for all three variables. WB-EMS resulted in the higher RPE values, RPE differences for W/NW and EMS∗W/NW were not significant. Discussion: The present project found good reliability for measuring VO2peak, rel. VO2peak, MWD and RPE during 10MISWT during WB-EMS-W, confirming prior research of the test. The test appears technically limited rather than physiologically in healthy, moderately active men. However, it is unsuitable for investigating differences in exercise intensities using WB-EMS-W compared to CON-W due to different perceptions of current intensity between exercise and rest. A treadmill test with constant walking speed was conducted to adjust individual maximum tolerable current intensity for the second part of the project. The treadmill test showed a significant increase in metabolic demands during WB-EMS-W and WB-EMS-NW by an increased VO2 and blood lactate concentration. However, the clinical relevance of these findings remains debatable. The study also found that WB-EMS superimposed exercises are perceived as more strenuous than conventional exercise. While in parts comparable studies lead to higher results for VO2, our results are in line with those of other studies using the same frequency. Due to the minor clinical relevance the use of WB-EMS as exercise intensification tool during walking and Nordic walking is limited. High device cost should be considered. Habituation to WB-EMS could increase current intensity tolerance and VO2 and make it a meaningful method in the treatment of T2DM. Recent figures show that WB-EMS is used in obese people to achieve health and weight goals. The supposed benefit should be further investigated scientifically. N2 - Hintergrund: Die weltweite Prävalenz von Diabetes hat in den letzten Jahren zugenommen. Bis zum Jahr 2045 wird mit einer Prävalenz von 700 Millionen Patienten gerechnet, was zu einer wirtschaftlichen Belastung für die Gesellschaft führt. Diabetes mellitus Typ 2, der mehr als 95 % aller Diabetesfälle ausmacht, ist eine multifaktorielle Stoffwechselstörung, die durch Insulinresistenz gekennzeichnet ist und zu einem Ungleichgewicht zwischen Insulinbedarf und -angebot führt. Übergewicht und Adipositas sind die Hauptrisikofaktoren für die Entwicklung von Diabetes mellitus Typ 2. Die Änderung des Lebensstils durch eine gesunde Ernährung und körperliche Aktivität ist die wichtigste und erfolgreichste Behandlungs- und Präventionsmethode für Diabetes mellitus Typ 2. Probleme können bei den Patienten bestehen, den empfohlenen Umfang an körperlicher Aktivität zu erreichen. Die elektrische Muskelstimulation (EMS) ist eine zunehmend beliebte Trainingsmethode, die in den letzten Jahren in den Mittelpunkt der Forschung gerückt ist. Dabei wird von außen ein elektrisches Feld an die Muskeln angelegt, was zu einer Muskelkontraktion führen kann. Positive Effekte des EMS-Trainings wurden sowohl bei gesunden Personen als auch in verschiedenen Patientengruppen gefunden. Neue EMS-Geräte bieten eine breite Palette mobiler Anwendungen für das Ganzkörper-EMS-Training (WB-EMS), z.B. die Intensivierung von dynamischen Ausdauerübungen mit niedriger Intensität durch WB-EMS. In diesem Dissertationsprojekt soll untersucht werden, ob die WB-EMS zur Intensivierung von dynamischen Übungen mit geringer Intensität wie Walking und Nordic Walking geeignet ist. Methodik: Zwei unabhängige Studien wurden durchgeführt. In der ersten Studie wurden die Zuverlässigkeit von Belastungsparametern während des 10-Meter-Inkremental-Penlde-Gehtests (10MISWT) unter Verwendung von überlagertem WB-EMS (Forschungsfrage 1, Unterfrage a) und der Unterschied in der Belastungsintensität zum konventionellen Gehen (Forschungsfrage 1, Unterfrage b) untersucht. Die zweite Studie beschäftigte sich mit Unterschieden in Belastungsparametern zwischen überlagertem WB-EMS (WB-EMS-W) und konventionellem Gehen (CON-W) sowie zwischen überlagertem WB-EMS (WB-EMS-NW) und konventionellem Nordic Walking (CON-NW) auf einem Laufband zu vergleichen (Forschungsfrage 2). Beide Studien wurden an Teilnehmergruppen von gesunden, mäßig aktiven Männern im Alter von 35-70 Jahren durchgeführt. Bei allen Messungen wurde das Niederfrequenz-Stimulationsgerät Easy Motion Skin® für WB-EMS mit einstellbaren Intensitäten für acht Muskelgruppen verwendet. Um die Sicherheit zu gewährleisten und Schmerzen und Muskelkrämpfe zu vermeiden, wurde die Stromintensität für jeden Teilnehmer bei jedem Versuch individuell angepasst. In Studie 1 wurden dreizehn Personen für jede Unterfrage einbezogen. Es wurde ein randomisiertes Cross-over-Design mit drei Messterminen verwendet, um Störfaktoren wie z. B. einen verzögert einsetzenden Muskelkater zu vermeiden. Der 10MISWT wurde so lange durchgeführt, bis die Teilnehmer die Kriterien des Tests, das Erreichen des Kegels bis zum nächsten akustischen Signal, nicht mehr erfüllten. Fünf Ergebnisgrößen erfasst wurden: Spitzenwertmessung der Sauerstoffaufnahme (VO2peak), relative VO2peak (rel.VO2peak), maximale Gehstrecke (MWD), Blutlaktatkonzentration und der Grad der wahrgenommenen Anstrengung (RPE). Elf Teilnehmer wurden in Studie 2 eingeschlossen. Um Störfaktoren zu vermeiden, wurde ein randomisiertes Cross-over-Design in einer Studie mit vier Messterminen verwendet. Es wurde ein Laufbandtestprotokoll mit konstanter Geschwindigkeit (6,5 m/s) entwickelt, um die Belastungsintensitäten zu vergleichen. Sauerstoffaufnahme (VO2), relative VO2 (rel. VO2), Blutlaktat und der RPE wurden als Ergebnisvariablen verwendet. Die Test-Retest-Reproduzierbarkeit zwischen den Messungen wurde anhand einer Zusammenstellung absoluter und relativer Zuverlässigkeitsmaße ermittelt. Die Ergebnisgrößen in Studie 2 wurden mit Hilfe multifaktorieller Varianzanalysen untersucht. Ergebnisse: Die Reliabilitätsanalyse zeigte eine gute Zuverlässigkeit für VO2peak, rel.VO2peak, MWD und RPE ohne statistisch signifikanten Unterschied für das WB-EMS überlagerte Gehen zwischen den beiden Messungen während des 10WISWT. Es wurden jedoch keine Unterschiede bei den Ergebnisvariablen im Vergleich zum konventionellen Gehen festgestellt. Die Analyse der Laufbandtests zeigte signifikante Effekte für die Faktoren CON/WB-EMS und W/NW für die Ergebnisvariablen VO2, rel.VO2 und Laktat, wobei beide Faktoren zu höheren Ergebnissen führten. Der Unterschied bei VO2 und rel.VO2 liegt jedoch im Bereich der biologischen Variabilität von ± 12 %. Die Faktorenkombination EMS∗W/NW ist für alle drei Variablen statistisch nicht signifikant. WB-EMS führte zu den höheren RPE-Werten, die RPE-Unterschiede für W/NW und EMS∗W/NW waren nicht signifikant. Diskussion: Das vorliegende Projekt ergab eine gute Zuverlässigkeit bei der Messung von VO2peak, rel.VO2peak, MWD und RPE während des 10MISWT mit WB-EMS-Überlagerung beim Gehen, was frühere Untersuchungen zu diesem Test bestätigen. Der Test scheint bei gesunden, mäßig aktiven Männern eher technisch als physiologisch begrenzt zu sein. Er ist jedoch ungeeignet für die Untersuchung von Unterschieden in der Belastungsintensität bei überlagertem WB-EMS im Vergleich zum herkömmlichen Gehen, da die Stromstärkenintensität des WB-EMS zwischen Belastung und Ruhe unterschiedlich wahrgenommen wird. Für den zweiten Teil des Projekts wurde ein Laufbandtest mit konstanter Gehgeschwindigkeit durchgeführt, um die individuell maximal tolerierbare Stromintensität während der Belastung einzustellen. Der Laufbandtest zeigte eine signifikante Erhöhung der metabolischen Anforderungen während des WB-EMS überlagerten Gehens und des Nordic Walking durch eine erhöhte VO2 und Blutlaktatkonzentration. Die klinische Relevanz dieser Ergebnisse bleibt jedoch umstritten. Die Studie ergab auch, dass WB-EMS-überlagerte Übungen als anstrengender empfunden werden als konventionelle Übungen. Während vergleichbare Studien zum Teil zu höheren VO2-Werten führen, stimmen unsere Ergebnisse mit denen anderer Studien überein, welche dieselbe Stromfrequenz verwenden. Aufgrund der bisher fehlenden klinischen Relevanz ist der Einsatz von WB-EMS zur Trainingsintensivierung beim Gehen und Nordic Walking begrenzt. Die hohen Gerätekosten sollten berücksichtigt werden. Die Gewöhnung an WB-EMS könnte die Toleranz gegenüber der aktuellen Intensität erhöhen, die VO2 weiter steigern und es zu einer sinnvollen Methode für die Behandlung von T2DM machen. Jüngste Zahlen zeigen, dass WB-EMS bei adipösen Menschen eingesetzt wird, um Gesundheits- und Gewichtsziele zu erreichen, der vermeintliche Nutzen sollte wissenschaftlich weiter untersucht werden. KW - whole-body electrical muscle stimulation KW - walking KW - type 2 diabetes mellitus KW - Diabetes mellitus Typ 2 KW - Gehen KW - elektrische Ganzkörpermuskelstimulation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-634240 ER - TY - THES A1 - Jacob, Karen T1 - Who are the Bene Israel from India? T1 - Wer sind die Bene Israel aus Indien? N2 - This study explores the identity of the Bene Israel caste from India and its assimilation into Israeli society. The large immigration from India to Israel started in the early 1950s and continued until the early 1970s. Initially, these immigrants struggled hard as they faced many problems such as the language barrier, cultural differences, a new climate, geographical isolation, and racial discrimination. This analysis focuses on the three major aspects of the integration process involving the Bene Israel: economic, socio-cultural and political. The study covers the period from the early fifties to the present. I will focus on the origin of the Bene Israel, which has evolved after their immigration to Israel; from a Hindu–Muslim lifestyle and customs they integrated into the Jewish life of Israel. Despite its ethnographic nature, this study has theological implications as it is an encounter between Jewish monotheism and Indian polytheism. All the western scholars who researched the Bene Israel community felt impelled to rely on information received by community members themselves. No written historical evidence recorded Bene Israel culture and origin. Only during the nineteenth century onwards, after the intrusion of western Jewish missionaries, were Jewish books translated into Marathi . Missionary activities among the Bene Israel served as a catalyst for the Bene Israel themselves to investigate their historical past . Haeem Samuel Kehimkar (1830-1908), a Bene Israel teacher, wrote notes on the history of the Bene Israel in India in Marathi in 1897. Brenda Ness wrote in her dissertation: The results [of the missionary activities] are several works about the community in English and Marathi by Bene-Israel authors which have appeared during the last century. These are, for the most part, not documented; they consist of much theorizing on accepted tradition and tend to be apologetic in nature. There can be no philosophical explanation or rational justification for an entire community to leave their motherland India, and enter into a process of annihilation of its own free will. I see this as a social and cultural suicide. In craving for a better future in Israel, the Indian Bene Israel community pays an enormously heavy price as a people that are today discarded by the East and disowned by the West: because they chose to become something that they never were and never could be. As it is written, “know where you came from, and where you are going.” A community with an ancient history from a spiritual culture has completely lost its identity and self-esteem. In concluding this dissertation, I realize the dilemma with which I have confronted the members of the Bene Israel community which I have reviewed after strenuous and constant self-examination. I chose to evolve the diversifications of the younger generations urges towards acceptance, and wish to clarify my intricate analysis of this controversial community. The complexity of living in a Jewish State, where citizens cannot fulfill their basic desires, like matrimony, forced an entire community to conceal their true identity and perjure themselves to blend in, for the sake of national integration. Although scholars accepted their new claims, the skepticism of the rabbinate authorities prevails, and they refuse to marry them to this day, suspecting they are an Indian caste. N2 - In dieser Studie wird versucht, die Identität der indischen Kaste der Bene Israel und ihre Assimilation in die israelische Gesellschaft zu untersuchen. Die große Einwanderung aus Indien nach Israel begann in den frühen 1950er Jahren und dauerte bis Anfang der 1970er Jahre. Anfangs hatten diese Einwanderer mit vielen Problemen zu kämpfen, wie z. B. der Sprachbarriere, der Kultur, dem Klima, der geografischen Isolation und der Rassendiskriminierung. Diese Analyse konzentriert sich auf die drei Hauptaspekte des Integrationsprozesses der Bene Israel: wirtschaftlich, soziokulturell und politisch. Die Studie erstreckt sich über den Zeitraum von den frühen fünfziger Jahren bis zur Gegenwart. Ich werde mich auf die Herkunft der Bene Israel konzentrieren, die sich nach ihrer Einwanderung nach Israel von einem hinduistisch-muslimischen Lebensstil und Bräuchen, die sie in das jüdische Leben in Israel integriert haben, entfremdet haben. Trotz ihres ethnographischen Charakters hat diese Studie theologische Implikationen, da sie eine Begegnung zwischen dem jüdischen Monotheismus und dem indischen Polytheismus darstellt. Alle westlichen Wissenschaftler, die sich mit der Gemeinde Bene Israel befasst haben, waren auf Informationen angewiesen, die sie von den Gemeindemitgliedern selbst erhielten. Es gab keine schriftlichen historischen Zeugnisse über ihre Kultur und Herkunft. Erst im neunzehnten Jahrhundert, nach dem Eindringen westlicher jüdischer Missionare, wurden jüdische Bücher ins Marathi übersetzt. Die missionarischen Aktivitäten unter den Bene Israel dienten als Katalysator für die Bene Israel selbst, um ihre historische Vergangenheit zu erforschen. Haeem Samuel Kehimkar (1830-1908), ein Lehrer der Bene Israel, schrieb 1897 Aufzeichnungen über die Geschichte der Bene Israel in Indien in Marathi. Brenda Ness schrieb in ihrer Dissertation: Die Ergebnisse [der missionarischen Aktivitäten] sind mehrere Werke über die Gemeinschaft in Englisch und Marathi von Bene-Israel-Autoren, die im letzten Jahrhundert erschienen sind. Diese sind größtenteils nicht dokumentiert; sie bestehen aus vielen Theorien über die akzeptierte Tradition und sind eher apologetischer Natur. Es gibt keine philosophische Erklärung oder rationale Rechtfertigung dafür, dass eine ganze Gemeinschaft ihr Mutterland Indien verlässt und sich aus freien Stücken in einen Prozess der Vernichtung begibt. Ich betrachte dies als einen sozialen und kulturellen Selbstmord. In ihrem Streben nach einer besseren Zukunft in Israel zahlt die indische Bene Israel-Gemeinschaft einen enorm hohen Preis als ein Volk, das heute vom Osten verworfen und vom Westen verleugnet wird: weil sie sich entschieden hat, etwas zu werden, das sie nie war und nie sein konnte. Wie es geschrieben steht: "Wisse, woher du kommst, und wohin du gehst". Eine Gemeinschaft mit einer alten Geschichte aus einer spirituellen Kultur hat ihre Identität und ihr Selbstwertgefühl völlig verloren. Zum Abschluss dieser Dissertation wird mir das Dilemma bewusst, mit dem ich die Mitglieder der Gemeinschaft Bene Israel konfrontiert habe und das ich nach anstrengender und ständiger Selbstbeobachtung überprüft habe. Ich habe mich dafür entschieden, die Diversifizierungen der jüngeren Generationen in Richtung Akzeptanz weiterzuentwickeln, und möchte meine komplexe Analyse dieser kontroversen Gemeinschaft verdeutlichen. Die Komplexität des Lebens in einem jüdischen Staat, in dem die Bürger ihre grundlegenden Wünsche, wie die Ehe, nicht erfüllen können, zwang eine ganze Gemeinschaft, ihre wahre Identität zu verbergen und einen Meineid zu leisten, um sich um der nationalen Integration willen anzupassen. Obwohl die Gelehrten ihre neuen Ansprüche akzeptierten, überwiegt die Skepsis der Rabbinatsbehörden, die sich bis heute weigern, sie zu verheiraten, da sie sie für eine indische Kaste halten. KW - Bene Israel KW - Bene Israel KW - Indian caste KW - Indischen Kaste KW - racial discrimination KW - Rassendiskriminierung KW - Jewish State KW - Jüdischer Staat Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-554508 ER - TY - THES A1 - Itonaga, Naomi T1 - White storks (Ciconia ciconia) of Eastern Germany: age-dependent breeding ability, and age- and density-dependent effects on dispersal behavior T1 - Der Weißstorch (Ciconia ciconia) aus dem östlichen Deutschland: altersabhängiges Reproduktionsvermögen und alters- und bestandsdichteabhängiges Ausbreitungsverhalten N2 - Dispersal behavior plays an important role for the geographical distribution and population structure of any given species. Individual’s fitness, reproductive and competitive ability, and dispersal behavior can be determined by the age of the individual. Age-dependent as well as density-dependent dispersal patterns are common in many bird species. In this thesis, I first present age-dependent breeding ability and natal site fidelity in white storks (Ciconia ciconia); migratory birds breeding in large parts of Europe. I predicted that both the proportion of breeding birds and natal site fidelity increase with the age. After the seventies of the last century, following a steep population decline, a recovery of the white stork population has been observed in many regions in Europe. Increasing population density in the white stork population in Eastern Germany especially after 1983 allowed examining density- as well as age-dependent breeding dispersal patterns. Therefore second, I present whether: young birds show more often and longer breeding dispersal than old birds, and frequency of dispersal events increase with the population density increase, especially in the young storks. Third, I present age- and density-dependent dispersal direction preferences in the give population. I asked whether and how the major spring migration direction interacts with dispersal directions of white storks: in different age, and under different population densities. The proportion of breeding individuals increased in the first 22 years of life and then decreased suggesting, the senescent decay in aging storks. Young storks were more faithful to their natal sites than old storks probably due to their innate migratory direction and distance. Young storks dispersed more frequently than old storks in general, but not for longer distance. Proportion of dispersing individuals increased significantly with increasing population densities indicating, density- dependent dispersal behavior in white storks. Moreover, the finding of a significant interaction effects between the age of dispersing birds and year (1980–2006) suggesting, older birds dispersed more from their previous nest sites over time due to increased competition. Both young and old storks dispersed along their spring migration direction; however, directional preferences were different in young storks and old storks. Young storks tended to settle down before reaching their previous nest sites (leading to the south-eastward dispersal) while old birds tended to keep migrating along the migration direction after reaching their previous nest sites (leading to the north-westward dispersal). Cues triggering dispersal events may be age-dependent. Changes in the dispersal direction over time were observed. Dispersal direction became obscured during the second half of the observation period (1993–2006). Increase in competition may affect dispersal behavior in storks. I discuss the potential role of: age for the observed age-dependent dispersal behavior, and competition for the density dependent dispersal behavior. This Ph.D. thesis contributes significantly to the understanding of population structure and geographical distribution of white storks. Moreover, presented age- and density (competition)-dependent dispersal behavior helps understanding underpinning mechanisms of dispersal behavior in bird species. N2 - Das Verständnis der Mechanismen, die dem Ausbreitungsverhalten und der Wahl des Neststandorts zugrunde liegen, gibt wichtige Einsichten in Strukturen und Dynamiken von Tierpopulationen. Der Gesundheitszustand, die Produktivität und Konkurrenzfähigkeit sowie das Ausbreitungsverhalten eines Individuums können über das Alter ermittelt werden. Alters- und dichteabhängige Veränderungen in Verbreitungsmustern kommen bei vielen Vogelarten vor. In der vorliegenden Studie untersuchten wir zunächst den Effekt des Alters auf die Reproduktivität, auf die Wahl des Neststandorts sowie auf die Geburtsorttreue des Weißstorchs (Ciconia ciconia). Wir fragten, ob sowohl der Anteil der brütenden Individuen als auch die Geburtsorttreue mit dem Alter zunimmt. Weißstörche sind Zugvögel, die während der Migration zumeist segelnd die Thermik nutzen und in weiten Teilen Europas brüten. Nach einem starken Bestandsrückgang konnte in vielen Regionen Europas ab den 1970er Jahren wieder ein positiver Trend in der Populationsentwicklung beobachtet werden. Die zunehmende Populationsdichte, besonders nach 1983 in der ostziehenden Subpopulation in den fünf Bundesländern der ehemaligen DDR, erlaubte die Analyse von dichte- und altersabhängigen Präferenzen in der Richtung der Brutstandorte sowie in der Verbreitungsfrequenz und -distanz. Wir untersuchten zudem die Alters- und Dichteabhängigkeit der Ausbreitungsrichtung einer Teilpopulation. Wir fragten, ob und wie die Hauptzugrichtung im Frühjahr mit der Verbreitungsrichtung interagiert: Beeinflussen Alter und Populationsdichte die Ausbreitungsrichtung? Der Anteil der brütenden Individuen, die älter als 22 Jahre sind, nahm innerhalb der beobachteten Teilpopulation ab, vermutlich aufgrund einer altersbedingten Abnahme des Gesundheitszustands. Junge Vögel zeigten eine starke Geburtsorttreue, was auf eine genetische Komponente in den Zugmustern junger Störche hinweist. Generell trat bei jungen Störchen häufiger Ausbreitungsverhalten auf als bei älteren Störchen. Eine signifikante Zunahme der Ausbreitungsdistanz von Individuen über die Zeit lässt auf eine dichteabhängige Komponente im Ausbreitungsverhalten der Weißstörche schließen. Weiterhin wurde eine signifikante Interaktion zwischen dem Alter sich ausbreitender Individuen und dem betrachteten Jahr gefunden. Demzufolge breiteten sich alte Vögel über die Zeit über größere Distanzen aus, vermutlich um der ansteigenden Konkurrenz, bedingt durch den wachsenden Bestandsdruck, zu entgehen. KW - Weißstorch KW - Altersabhängigkeit KW - Dichteabhängigkeit KW - Ausbreitungsverhalten KW - Reproduktivität KW - White stork KW - age-dependent KW - density-dependent KW - dispersal behavior KW - breeding ability Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-39052 ER - TY - THES A1 - Knoll, Lisa Joanna T1 - When the hedgehog kisses the frog : a functional and structural investigatin of syntactic processing in the developing brain T2 - MPI series in human cognitive and brain sciences Y1 - 2013 SN - 978-3-941504-34-9 VL - 150 PB - MPI CY - Leipzig ER - TY - THES A1 - Schmidt-Kassow, Maren T1 - What? beat got to do with it? The influence of meter on syntactic processing: ERP evidence from healthy and patient populations T2 - MPI series in human cognitive and brain sciences Y1 - 2007 SN - 978-3-936816-63-1 VL - 89 PB - MPI for Human Cognitive and Brain Sciences CY - Leipzig ER - TY - THES A1 - Lorey, Johannes T1 - What's in a query : analyzing, predicting, and managing linked data access T1 - Was ist in einer Anfrage : Analyse, Vorhersage und Verwaltung von Zugriffen auf Linked Data N2 - The term Linked Data refers to connected information sources comprising structured data about a wide range of topics and for a multitude of applications. In recent years, the conceptional and technical foundations of Linked Data have been formalized and refined. To this end, well-known technologies have been established, such as the Resource Description Framework (RDF) as a Linked Data model or the SPARQL Protocol and RDF Query Language (SPARQL) for retrieving this information. Whereas most research has been conducted in the area of generating and publishing Linked Data, this thesis presents novel approaches for improved management. In particular, we illustrate new methods for analyzing and processing SPARQL queries. Here, we present two algorithms suitable for identifying structural relationships between these queries. Both algorithms are applied to a large number of real-world requests to evaluate the performance of the approaches and the quality of their results. Based on this, we introduce different strategies enabling optimized access of Linked Data sources. We demonstrate how the presented approach facilitates effective utilization of SPARQL endpoints by prefetching results relevant for multiple subsequent requests. Furthermore, we contribute a set of metrics for determining technical characteristics of such knowledge bases. To this end, we devise practical heuristics and validate them through thorough analysis of real-world data sources. We discuss the findings and evaluate their impact on utilizing the endpoints. Moreover, we detail the adoption of a scalable infrastructure for improving Linked Data discovery and consumption. As we outline in an exemplary use case, this platform is eligible both for processing and provisioning the corresponding information. N2 - Unter dem Begriff Linked Data werden untereinander vernetzte Datenbestände verstanden, die große Mengen an strukturierten Informationen für verschiedene Anwendungsgebiete enthalten. In den letzten Jahren wurden die konzeptionellen und technischen Grundlagen für die Veröffentlichung von Linked Data gelegt und verfeinert. Zu diesem Zweck wurden eine Reihe von Technologien eingeführt, darunter das Resource Description Framework (RDF) als Datenmodell für Linked Data und das SPARQL Protocol and RDF Query Language (SPARQL) zum Abfragen dieser Informationen. Während bisher hauptsächlich die Erzeugung und Bereitstellung von Linked Data Forschungsgegenstand war, präsentiert die vorliegende Arbeit neuartige Verfahren zur besseren Nutzbarmachung. Insbesondere werden dafür Methoden zur Analyse und Verarbeitung von SPARQL-Anfragen entwickelt. Zunächst werden daher zwei Algorithmen vorgestellt, die die strukturelle Ähnlichkeit solcher Anfragen bestimmen. Beide Algorithmen werden auf eine große Anzahl von authentischen Anfragen angewandt, um sowohl die Güte der Ansätze als auch die ihrer Resultate zu untersuchen. Darauf aufbauend werden verschiedene Strategien erläutert, mittels derer optimiert auf Quellen von Linked Data zugegriffen werden kann. Es wird gezeigt, wie die dabei entwickelte Methode zur effektiven Verwendung von SPARQL-Endpunkten beiträgt, indem relevante Ergebnisse für mehrere nachfolgende Anfragen vorgeladen werden. Weiterhin werden in dieser Arbeit eine Reihe von Metriken eingeführt, die eine Einschätzung der technischen Eigenschaften solcher Endpunkte erlauben. Hierfür werden praxisrelevante Heuristiken entwickelt, die anschließend ausführlich mit Hilfe von konkreten Datenquellen analysiert werden. Die dabei gewonnenen Erkenntnisse werden erörtert und in Hinblick auf die Verwendung der Endpunkte interpretiert. Des Weiteren wird der Einsatz einer skalierbaren Plattform vorgestellt, die die Entdeckung und Nutzung von Beständen an Linked Data erleichtert. Diese Plattform dient dabei sowohl zur Verarbeitung als auch zur Verfügbarstellung der zugehörigen Information, wie in einem exemplarischen Anwendungsfall erläutert wird. KW - Vernetzte Daten KW - SPARQL KW - RDF KW - Anfragepaare KW - Informationsvorhaltung KW - linked data KW - SPARQL KW - RDF KW - query matching KW - prefetching Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72312 ER - TY - THES A1 - Urbach, Tina T1 - What makes or breaks proactivity at work : how personal motives affect the evaluation of improvement suggestions Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Scheithauer, Linda T1 - What have you been doing besides studying? Evaluators' competence attributions on extracurricular activities in application documents Y1 - 2019 ER - TY - THES A1 - Maraun, Douglas T1 - What can we learn from climate data? : Methods for fluctuation, time/scale and phase analysis T1 - Was können wir aus Klimadaten lernen? : Methoden zur Fluktuations-, Zeit/Skalen- und Phasenanalyse N2 - Since Galileo Galilei invented the first thermometer, researchers have tried to understand the complex dynamics of ocean and atmosphere by means of scientific methods. They observe nature and formulate theories about the climate system. Since some decades powerful computers are capable to simulate the past and future evolution of climate. Time series analysis tries to link the observed data to the computer models: Using statistical methods, one estimates characteristic properties of the underlying climatological processes that in turn can enter the models. The quality of an estimation is evaluated by means of error bars and significance testing. On the one hand, such a test should be capable to detect interesting features, i.e. be sensitive. On the other hand, it should be robust and sort out false positive results, i.e. be specific. This thesis mainly aims to contribute to methodological questions of time series analysis with a focus on sensitivity and specificity and to apply the investigated methods to recent climatological problems. First, the inference of long-range correlations by means of Detrended Fluctuation Analysis (DFA) is studied. It is argued that power-law scaling of the fluctuation function and thus long-memory may not be assumed a priori but have to be established. This requires to investigate the local slopes of the fluctuation function. The variability characteristic for stochastic processes is accounted for by calculating empirical confidence regions. The comparison of a long-memory with a short-memory model shows that the inference of long-range correlations from a finite amount of data by means of DFA is not specific. When aiming to infer short memory by means of DFA, a local slope larger than $\alpha=0.5$ for large scales does not necessarily imply long-memory. Also, a finite scaling of the autocorrelation function is shifted to larger scales in the fluctuation function. It turns out that long-range correlations cannot be concluded unambiguously from the DFA results for the Prague temperature data set. In the second part of the thesis, an equivalence class of nonstationary Gaussian stochastic processes is defined in the wavelet domain. These processes are characterized by means of wavelet multipliers and exhibit well defined time dependent spectral properties; they allow one to generate realizations of any nonstationary Gaussian process. The dependency of the realizations on the wavelets used for the generation is studied, bias and variance of the wavelet sample spectrum are calculated. To overcome the difficulties of multiple testing, an areawise significance test is developed and compared to the conventional pointwise test in terms of sensitivity and specificity. Applications to Climatological and Hydrological questions are presented. The thesis at hand mainly aims to contribute to methodological questions of time series analysis and to apply the investigated methods to recent climatological problems. In the last part, the coupling between El Nino/Southern Oscillation (ENSO) and the Indian Monsoon on inter-annual time scales is studied by means of Hilbert transformation and a curvature defined phase. This method allows one to investigate the relation of two oscillating systems with respect to their phases, independently of their amplitudes. The performance of the technique is evaluated using a toy model. From the data, distinct epochs are identified, especially two intervals of phase coherence, 1886-1908 and 1964-1980, confirming earlier findings from a new point of view. A significance test of high specificity corroborates these results. Also so far unknown periods of coupling invisible to linear methods are detected. These findings suggest that the decreasing correlation during the last decades might be partly inherent to the ENSO/Monsoon system. Finally, a possible interpretation of how volcanic radiative forcing could cause the coupling is outlined. N2 - Seit der Erfindung des Thermometers durch Galileo Galilei versuchen Forscher mit naturwissenschaftlichen Methoden die komplexen Zusammenhänge in der Atmosphäre und den Ozeanen zu entschlüsseln. Sie beobachten die Natur und stellen Theorien über das Klimasystem auf. Seit wenigen Jahrzehnten werden sie dabei von immer leistungsfähigeren Computern unterstützt, die das Klima der Erdgeschichte und der nahen Zukunft simulieren. Die Verbindung aus den Beobachtungen und den Modellen versucht die Zeitreihen­analyse herzustellen: Aus den Daten werden mit statistischen Methoden charak­teristische Eigenschaften der zugrundeliegenden klimatologischen Prozesse geschätzt, die dann in die Modelle einfliessen können. Die Bewertung solch einer Schätzung, die stets Messfehlern und Vereinfachungen des Modells unterworfen ist, erfolgt statistisch entweder mittels Konfidenzintervallen oder Signifikanztests. Solche Tests sollen auf der einen Seite charakteristische Eigenschaften in den Daten erkennen können, d.h. sie sollen sensitiv sein. Auf der anderen Seite sollen sie jedoch auch keine Eigenschaften vortäuschen, d.h. sie sollen spezifisch sein. Für die vertrauenswürdige Untermauerung einer Hypothese ist also ein spezifischer Test erforderlich. Die vorliegende Arbeit untersucht verschiedene Methoden der Zeitreihenanalyse, erweitert sie gegebenenfalls und wendet sie auf typische klimatologische Frage­stellungen an. Besonderes Augenmerk wird dabei auf die Spezifizität der jeweiligen Methode gelegt; die Grenzen möglicher Folgerungen mittels Datenanalyse werden diskutiert. Im ersten Teil der Arbeit wird studiert, wie und ob sich mithilfe der sogenannten trendbereinigenden Fluktuationsanalyse aus Temperaturzeitreihen ein sogenanntes langes Gedächtnis der zugrundeliegenden Prozesse herleiten lässt. Solch ein Gedächtnis bedeutet, dass der Prozess seine Vergangenheit nie vergisst, mit fundamentalen Auswirkungen auf die gesamte statistische Beurteilung des Klimasystems. Diese Arbeit konnte jedoch zeigen, dass die Analysemethode vollkommen unspezifisch ist und die Hypothese “Langes Gedächtnis” gar nicht abgelehnt werden kann. Im zweiten Teil werden zunächst Mängel einer sehr populären Analysemethode, der sogenannten kontinuierlichen Waveletspetralanalyse diskutiert. Diese Methode schätzt die Variabilität eines Prozesses auf verschiedenen Schwingungsperioden zu bestimm­ten Zeiten. Ein wichtiger Nachteil der bisherigen Methodik sind auch hier unspezi­fische Signifikanztests. Ausgehend von der Diskussion wird eine Theorie der Wavelet­spektralanalyse entwickelt, die ein breites Feld an neuen Anwendungen öffnet. Darauf basierend werden spezifische Signifikanztests konstruiert. Im letzten Teil der Arbeit wird der Einfluss des El Niño/Southern Oscillation Phäno­mens auf den Indischen Sommermonsun analysiert. Es wird untersucht, ob und wann die Oszillationen beider Phänomene synchron ablaufen. Dazu wird eine etablierte Methode für die speziellen Bedürfnisse der Analyse von typischerweise sehr unregel­mäßigen Klimadaten erweitert. Mittels eines spezifischen Signifikanztests konnten bisherige Ergebnisse mit erhöhter Genauigkeit bestätigt werden. Zusätzlich konnte diese Methode jedoch auch neue Kopplungsintervalle feststellen, die die Hypothese entkräften konnten, dass ein neuerliches Verschwinden der Kopplung ein beisspielloser Vorgang sei. Schliesslich wird eine Hypothese vorgestellt, wie vulkanische Aerosole die Kopplung beeinflussen könnten. KW - Spektralanalyse KW - Monsun KW - Klimatologie KW - Zeitreihenanalyse KW - Wavelet-Analyse KW - El-Niño-Phänomen KW - Kopplungs-Analyse KW - Kohärenz-Analyse KW - Phasen-Analyse KW - Signifikanztests KW - Continuous Wavelet Spectral Analysis KW - Wavelet Coherence KW - Phase-Analysis KW - Significance Testing KW - Climatology Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-9047 ER - TY - THES A1 - Camara Mattos Martins, Marina T1 - What are the downstream targets of trehalose-6-phosphate signalling in plants? Y1 - 2011 CY - Potsdam ER - TY - THES A1 - Figueroa Campos, Gustavo Adolfo T1 - Wet-coffee processing production wastes T1 - Produktionsabfälle aus der Nasskaffeeverarbeitung BT - quality, potentials, and valorization opportunities BT - Qualität, Potenziale und Verwertungsmöglichkeiten N2 - Countries processing raw coffee beans are burdened with low economical incomes to fight the serious environmental problems caused by the by-products and wastewater that is generated during the wet-coffee processing. The aim of this work was to develop alternative methods of improving the waste by-product quality and thus making the process economically more attractive with valorization options that can be brought to the coffee producers. The type of processing influences not only the constitution of green coffee but also of by-products and wastewater. Therefore, coffee bean samples as well as by-products and wastewater collected at different production steps of were analyzed. Results show that the composition of wastewater is dependent on how much and how often the wastewater is recycled in the processing. Considering the coffee beans, results indicate that the proteins might be affected during processing and a positive effect of the fermentation on the solubility and accessibility of proteins seems to be probable. The steps of coffee processing influence the different constituents of green coffee beans which, during roasting, give rise to aroma compounds and express the characteristics of roasted coffee beans. Knowing that this group of compounds is involved in the Maillard reaction during roasting, this possibility could be utilized for the coffee producers to improve the quality of green coffee beans and finally the coffee cup quality. The valorization of coffee wastes through modification to activated carbon has been considered as a low-cost option creating an adsorbent with prospective to compete with commercial carbons. Activation protocol using spent coffee and parchment was developed and prepared to assess their adsorption capacity for organic compounds. Spent coffee grounds and parchment proved to have similar adsorption efficiency to commercial activated carbon. The results of this study document a significant information originating from the processing of the de-pulped to green coffee beans. Furthermore, it showed that coffee parchment and spent coffee grounds can be valorized as low-cost option to produce activated carbons. Further work needs to be directed to the optimization of the activation methods to improve the quality of the materials produced and the viability of applying such experiments in-situ to bring the coffee producer further valorization opportunities with environmental perspectives. Coffee producers would profit in establishing appropriate simple technologies to improve green coffee quality, re-use coffee by-products, and wastewater valorization. N2 - Produktionsabfälle aus der Nasskaffeeverarbeitung: Qualität, Potenziale und Verwertungsmöglichkeiten Die Länder, die Rohkaffee verarbeiten, haben nur ein geringes wirtschaftliches Einkommen, um die ernsten Umweltprobleme zu bekämpfen, die durch die bei der Nasskaffeeverarbeitung anfallenden Nebenprodukte und Abwässer verursacht werden. Ziel dieser Arbeit war es, alternative Methoden zu entwickeln, um die Qualität der Nebenprodukte zu verbessern und so den Prozess wirtschaftlich attraktiver zu machen, indem den Kaffeeproduzenten Valorisierungsoptionen geboten werden. Die Art der Verarbeitung beeinflusst nicht nur die Beschaffenheit des Rohkaffees, sondern auch die der Nebenprodukte und des Abwassers. Daher wurden Proben von Kaffeebohnen sowie Nebenprodukte und Abwässer analysiert, die bei verschiedenen Produktionsschritten gesammelt wurden. Die Ergebnisse zeigen, dass die Zusammensetzung des Abwassers davon abhängt, wie viel und wie oft das Abwasser bei der Verarbeitung recycelt wird. In Bezug auf die Kaffeebohnen deuten die Ergebnisse darauf hin, dass die Proteine während der Verarbeitung beeinträchtigt werden könnten, und eine positive Auswirkung der Fermentation auf die Löslichkeit und Zugänglichkeit der Proteine scheint wahrscheinlich zu sein. Die Schritte der Kaffeeverarbeitung beeinflussen die verschiedenen Bestandteile der grünen Kaffeebohnen, die beim Rösten zu Aromastoffen werden und die Eigenschaften der gerösteten Kaffeebohnen zum Ausdruck bringen. Da diese Gruppe von Verbindungen an der Maillard-Reaktion während des Röstens beteiligt ist, könnte diese Möglichkeit von den Kaffeeproduzenten genutzt werden, um die Qualität der grünen Kaffeebohnen und schließlich die Qualität des zubereiteten Kaffees zu verbessern. Die Herstellung von Aktivkohle aus modifizierten Kaffeeabfällen wurde als kostengünstige Option zur Schaffung eines Adsorptionsmittels betrachtet, das mit handelsüblicher Aktivkohle konkurrieren könnte. Es wurde ein Aktivierungsprotokoll für gebrauchten Kaffee und Pergament entwickelt und vorbereitet, um deren Adsorptionskapazität für organische Verbindungen zu bewerten. Es zeigte sich, dass Kaffeesatz und Pergament eine ähnliche Adsorptionseffizienz aufweisen wie kommerzielle Aktivkohle. Die Ergebnisse dieser Studie belegen, dass die Verarbeitung von den entpulpten zu grünen Kaffeebohnen eine wichtige Information darstellt. Darüber hinaus wurde gezeigt, dass Kaffeepergament und Kaffeesatz als kostengünstige Möglichkeit zur Herstellung von Aktivkohle genutzt werden können. Weitere Arbeiten müssen sich mit der Optimierung der Aktivierungsmethoden befassen, um die Qualität der hergestellten Materialien zu verbessern, und mit der Durchführbarkeit solcher Experimente in-situ, um den Kaffeeproduzenten weitere Aufwertungsmöglichkeiten mit Umweltperspektive zu bieten. Die Kaffeeproduzenten würden von der Einführung geeigneter einfacher Technologien zur Verbesserung der Rohkaffeequalität, der Wiederverwendung von Kaffeenebenprodukten und der Aufwertung von Abwässern profitieren. KW - Arabica coffee beans KW - coffee processing KW - coffee by-products KW - protein modification KW - activated carbon KW - Arabica Kaffeebohnen KW - Aktivkohle KW - Kaffeenebenprodukte KW - Kaffeeverarbeitung KW - Protein Modifizierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558828 ER - TY - THES A1 - Fuchs, Sven T1 - Well-log based determination of rock thermal conductivity in the North German Basin T1 - Bestimmung der Gesteinswärmeleitfähigkeit aus geophysikalischen Bohrlochmessungen im Norddeutschen Becken N2 - In sedimentary basins, rock thermal conductivity can vary both laterally and vertically, thus altering the basin’s thermal structure locally and regionally. Knowledge of the thermal conductivity of geological formations and its spatial variations is essential, not only for quantifying basin evolution and hydrocarbon maturation processes, but also for understanding geothermal conditions in a geological setting. In conjunction with the temperature gradient, thermal conductivity represents the basic input parameter for the determination of the heat-flow density; which, in turn, is applied as a major input parameter in thermal modeling at different scales. Drill-core samples, which are necessary to determine thermal properties by laboratory measurements, are rarely available and often limited to previously explored reservoir formations. Thus, thermal conductivities of Mesozoic rocks in the North German Basin (NGB) are largely unknown. In contrast, geophysical borehole measurements are often available for the entire drilled sequence. Therefore, prediction equations to determine thermal conductivity based on well-log data are desirable. In this study rock thermal conductivity was investigated on different scales by (1) providing thermal-conductivity measurements on Mesozoic rocks, (2) evaluating and improving commonly applied mixing models which were used to estimate matrix and pore-filled rock thermal conductivities, and (3) developing new well-log based equations to predict thermal conductivity in boreholes without core control. Laboratory measurements are performed on sedimentary rock of major geothermal reservoirs in the Northeast German Basin (NEGB) (Aalenian, Rhaethian-Liassic, Stuttgart Fm., and Middle Buntsandstein). Samples are obtained from eight deep geothermal wells that approach depths of up to 2,500 m. Bulk thermal conductivities of Mesozoic sandstones range between 2.1 and 3.9 W/(m∙K), while matrix thermal conductivity ranges between 3.4 and 7.4 W/(m∙K). Local heat flow for the Stralsund location averages 76 mW/m², which is in good agreement to values reported previously for the NEGB. For the first time, in-situ bulk thermal conductivity is indirectly calculated for entire borehole profiles in the NEGB using the determined surface heat flow and measured temperature data. Average bulk thermal conductivity, derived for geological formations within the Mesozoic section, ranges between 1.5 and 3.1 W/(m∙K). The measurement of both dry- and water-saturated thermal conductivities allow further evaluation of different two-component mixing models which are often applied in geothermal calculations (e.g., arithmetic mean, geometric mean, harmonic mean, Hashin-Shtrikman mean, and effective-medium theory mean). It is found that the geometric-mean model shows the best correlation between calculated and measured bulk thermal conductivity. However, by applying new model-dependent correction, equations the quality of fit could be significantly improved and the error diffusion of each model reduced. The ‘corrected’ geometric mean provides the most satisfying results and constitutes a universally applicable model for sedimentary rocks. Furthermore, lithotype-specific and model-independent conversion equations are developed permitting a calculation of water-saturated thermal conductivity from dry-measured thermal conductivity and porosity within an error range of 5 to 10%. The limited availability of core samples and the expensive core-based laboratory measurements make it worthwhile to use petrophysical well logs to determine thermal conductivity for sedimentary rocks. The approach followed in this study is based on the detailed analyses of the relationships between thermal conductivity of rock-forming minerals, which are most abundant in sedimentary rocks, and the properties measured by standard logging tools. By using multivariate statistics separately for clastic, carbonate and evaporite rocks, the findings from these analyses allow the development of prediction equations from large artificial data sets that predict matrix thermal conductivity within an error of 4 to 11%. These equations are validated successfully on a comprehensive subsurface data set from the NGB. In comparison to the application of earlier published approaches formation-dependent developed for certain areas, the new developed equations show a significant error reduction of up to 50%. These results are used to infer rock thermal conductivity for entire borehole profiles. By inversion of corrected in-situ thermal-conductivity profiles, temperature profiles are calculated and compared to measured high-precision temperature logs. The resulting uncertainty in temperature prediction averages < 5%, which reveals the excellent temperature prediction capabilities using the presented approach. In conclusion, data and methods are provided to achieve a much more detailed parameterization of thermal models. N2 - Die thermische Modellierung des geologischen Untergrundes ist ein wichtiges Werkzeug bei der Erkundung und Bewertung tiefliegender Ressourcen sedimentärer Becken (e.g., Kohlenwasserstoffe, Wärme). Die laterale und vertikale Temperaturverteilung im Untergrund wird, neben der Wärmestromdichte und der radiogenen Wärmeproduktion, hauptsächlich durch die Wärmeleitfähigkeit (WLF) der abgelagerten Gesteinsschichten bestimmt. Diese Parameter stellen die wesentlichen Eingangsgrößen für thermische Modelle dar. Die vorliegende Dissertation befasst sich mit der Bestimmung der Gesteins-WLF auf verschiedenen Skalen. Dies umfasst (1) laborative WLF-Messungen an mesozoischen Bohrkernproben, (2) die Evaluierung und Verbesserung der Prognosefähigkeit von Mischgesetzten zur Berechnung von Matrix- und Gesamt-WLF sedimentärer Gesteine, sowie (3) die Entwicklung neuer Prognosegleichungen unter Nutzung bohrlochgeophysikalischer Messungen und multivariater Analysemethoden im NGB. Im Nordostdeutschen Becken (NEGB) wurden für die wichtigsten geothermischen Reservoire des Mesozoikums (Aalen, Rhät-Lias-Komplex, Stuttgart Formation, Mittlerer Buntsandstein) Bohrkerne geothermischer Tiefbohrungen (bis 2.500 m Tiefe) auf Ihre thermischen und petrophysikalischen Eigenschaften hin untersucht. Die WLF mesozoischer Sandsteine schwankt im Mittel zwischen 2,1 und 3,9 W/(m∙K), die WLF der Gesteinsmatrix hingegen im Mittel zwischen 3,4 und 7,4 W/(m∙K). Neu berechnete Werte zur Oberflächenwärmestromdichte (e.g., 76 mW/m², Stralsund) stehen im Einklang mit den Ergebnissen früherer Studien im NEGB. Erstmals im NDB wurde für das mesozoisch/känozoischen Intervall am Standort Stralsund ein in-situ WLF-Profil berechnet. In-situ Formations-WLF, für als potentielle Modelschichten interessante, stratigraphische Intervalle, variieren im Mittel zwischen 1,5 und 3,1 W/(m∙K) und bilden eine gute Grundlage für kleinskalige (lokale) thermische Modelle. Auf Grund der in aller Regel nur eingeschränkt verfügbaren Bohrkernproben sowie des hohen laborativen Aufwandes zur Bestimmung der WLF waren alternative Methoden gesucht. Die Auswertung petrophysikalischer Bohrlochmessungen mittels mathematischer-statistischer Methoden stellt einen lang genutzten und erprobten Ansatz dar, welcher in seiner Anwendbarkeit jedoch auf die aufgeschlossenen Gesteinsbereiche (Genese, Geologie, Stratigraphie, etc.) beschränkt ist. Daher wurde ein leicht modifizierter Ansatz entwickelt. Die thermophysikalischen Eigenschaften der 15 wichtigsten gesteinsbildenden Minerale (in Sedimentgesteinen) wurden statistisch analysiert und aus variablen Mischungen dieser Basisminerale ein umfangreicher, synthetischer Datensatz generiert. Dieser wurde mittels multivariater Statistik bearbeitet, in dessen Ergebnis Regressionsgleichungen zur Prognose der Matrix-WLF für drei Gesteinsgruppen (klastisch, karbonatisch, evaporitisch) abgeleitet wurden. In einem zweiten Schritt wurden für ein Echtdatenset (laborativ gemessene WLF und Standardbohrlochmessungen) empirische Prognosegleichungen für die Berechnung der Gesamt-WLF entwickelt. Die berechneten WLF zeigen im Vergleich zu gemessenen WLF Fehler zwischen 5% und 11%. Die Anwendung neu entwickelter, sowie in der Literatur publizierter Verfahren auf den NGB-Datensatz zeigt, dass mit den neu aufgestellten Gleichungen stets der geringste Prognosefehler erreicht wird. Die Inversion neu berechneter WLF-Profile erlaubt die Ableitung synthetischer Temperaturprofile, deren Vergleich zu gemessenen Gesteinstemperaturen in einen mittleren Fehler von < 5% resultiert. Im Rahmen geothermischer Berechnungen werden zur Umrechnung zwischen Matrix- und Gesamt-WLF häufig Zwei-Komponenten-Mischmodelle genutzt (Arithmetisches Mittel, Harmonische Mittel, Geometrisches Mittel, Hashin-Shtrikman Mittel, Effektives-Medium Mittel). Ein umfangreicher Datensatz aus trocken- und gesättigt-gemessenen WLF und Porosität erlaubt die Evaluierung dieser Modelle hinsichtlich Ihrer Prognosefähigkeit. Diese variiert für die untersuchten Modelle stark (Fehler: 5 – 53%), wobei das geometrische Mittel die größte, quantitativ aber weiterhin unbefriedigende Übereinstimmungen zeigt. Die Entwicklung und Anwendung mischmodelspezifischer Korrekturgleichungen führt zu deutlich reduzierten Fehlern. Das korrigierte geometrische Mittel zeigt dabei, bei deutlich reduzierter Fehlerstreubreite, erneut die größte Übereinstimmung zwischen berechneten und gemessenen Werten und scheint ein universell anwendbares Mischmodel für sedimentäre Gesteine zu sein. Die Entwicklung modelunabhängiger, gesteinstypbezogener Konvertierungsgleichungen ermöglicht die Abschätzung der wassergesättigten Gesamt-WLF aus trocken-gemessener WLF und Porosität mit einem mittleren Fehler < 9%. Die präsentierten Daten und die neu entwickelten Methoden erlauben künftig eine detailliertere und präzisere Parametrisierung thermischer Modelle sedimentärer Becken. KW - Wärmeleitfähigkeit KW - Temperaturfeld KW - Nordostdeutsches Becken KW - Bohrlochmessungen KW - Multivariate Analyse KW - Thermal-conductivity KW - Well-log analysis KW - Northeast German Basin KW - temperature field analysis KW - Multivariate statistic Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67801 ER - TY - THES A1 - Pingel, Ruta T1 - Well-being effects of proactivity through the lens of self-determination theory N2 - In modern times of evolving globalization and continuous technological developments, organizations are required to respond to ever-changing demands. Therefore, to be successful in today’s highly uncertain environments, organizations need employees to actively search for opportunities, anticipate challenges, and act ahead. In other words, employee proactivity in the workplace represents a highly valuable resource in nowadays organizations. Empirical studies conducted as part of this thesis advance the research on the outcomes of proactivity from the individual perspective. The main contribution of this thesis pertains to revealing several important individual and contextual conditions under which engaging in proactivity will have negative and positive effects on employees’ well-being and their consequent behaviours, as well as shedding light on the unique psychological mechanisms through which these effects unfold. From a practical standpoint, this research underscores the importance of creating work environments that support employees’ autonomous motivation for proactivity and urge organizations and managers to be mindful about the pressures they place on employees to be proactive at work. Besides, this thesis stimulates research efforts aimed at further extending our knowledge of when and how individual proactive behaviours at work will do more good than harm for those who enact them. KW - Proactivity KW - Well-Being KW - Self-Determination Theory KW - Proaktivität KW - Wohlbefinden KW - Selbstbestimmungstheorie Y1 - 2021 ER - TY - THES A1 - Mofina, Sabine T1 - Weighing the Role of the Hypoxia Inducible Factor-1a in Tumor and Stroma for tumorigenesis Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Lederer, Markus A1 - Kessler, Oliver T1 - Weber, S., (Hrsg.) Globalization and the European Political Economy; New York, Univ., 2001 BT - Globalization and the European Political Economy Y1 - 2008 ER - TY - THES A1 - Klimke, Jan T1 - Web-based provisioning and application of large-scale virtual 3D city models T1 - Webbasierte Bereitstellung und Anwendung von großen virtuellen 3D-Stadtmodellen N2 - Virtual 3D city models represent and integrate a variety of spatial data and georeferenced data related to urban areas. With the help of improved remote-sensing technology, official 3D cadastral data, open data or geodata crowdsourcing, the quantity and availability of such data are constantly expanding and its quality is ever improving for many major cities and metropolitan regions. There are numerous fields of applications for such data, including city planning and development, environmental analysis and simulation, disaster and risk management, navigation systems, and interactive city maps. The dissemination and the interactive use of virtual 3D city models represent key technical functionality required by nearly all corresponding systems, services, and applications. The size and complexity of virtual 3D city models, their management, their handling, and especially their visualization represent challenging tasks. For example, mobile applications can hardly handle these models due to their massive data volume and data heterogeneity. Therefore, the efficient usage of all computational resources (e.g., storage, processing power, main memory, and graphics hardware, etc.) is a key requirement for software engineering in this field. Common approaches are based on complex clients that require the 3D model data (e.g., 3D meshes and 2D textures) to be transferred to them and that then render those received 3D models. However, these applications have to implement most stages of the visualization pipeline on client side. Thus, as high-quality 3D rendering processes strongly depend on locally available computer graphics resources, software engineering faces the challenge of building robust cross-platform client implementations. Web-based provisioning aims at providing a service-oriented software architecture that consists of tailored functional components for building web-based and mobile applications that manage and visualize virtual 3D city models. This thesis presents corresponding concepts and techniques for web-based provisioning of virtual 3D city models. In particular, it introduces services that allow us to efficiently build applications for virtual 3D city models based on a fine-grained service concept. The thesis covers five main areas: 1. A Service-Based Concept for Image-Based Provisioning of Virtual 3D City Models It creates a frame for a broad range of services related to the rendering and image-based dissemination of virtual 3D city models. 2. 3D Rendering Service for Virtual 3D City Models This service provides efficient, high-quality 3D rendering functionality for virtual 3D city models. In particular, it copes with requirements such as standardized data formats, massive model texturing, detailed 3D geometry, access to associated feature data, and non-assumed frame-to-frame coherence for parallel service requests. In addition, it supports thematic and artistic styling based on an expandable graphics effects library. 3. Layered Map Service for Virtual 3D City Models It generates a map-like representation of virtual 3D city models using an oblique view. It provides high visual quality, fast initial loading times, simple map-based interaction and feature data access. Based on a configurable client framework, mobile and web-based applications for virtual 3D city models can be created easily. 4. Video Service for Virtual 3D City Models It creates and synthesizes videos from virtual 3D city models. Without requiring client-side 3D rendering capabilities, users can create camera paths by a map-based user interface, configure scene contents, styling, image overlays, text overlays, and their transitions. The service significantly reduces the manual effort typically required to produce such videos. The videos can automatically be updated when the underlying data changes. 5. Service-Based Camera Interaction It supports task-based 3D camera interactions, which can be integrated seamlessly into service-based visualization applications. It is demonstrated how to build such web-based interactive applications for virtual 3D city models using this camera service. These contributions provide a framework for design, implementation, and deployment of future web-based applications, systems, and services for virtual 3D city models. The approach shows how to decompose the complex, monolithic functionality of current 3D geovisualization systems into independently designed, implemented, and operated service- oriented units. In that sense, this thesis also contributes to microservice architectures for 3D geovisualization systems—a key challenge of today’s IT systems engineering to build scalable IT solutions. N2 - Virtuelle 3D-Stadtmodelle repräsentieren und integrieren eine große Bandbreite von Geodaten und georeferenzierten Daten über städtische Gebiete. Verfügbarkeit, Quantität und Qualität solcher Daten verbessern sich ständig für viele Städte und Metropolregionen, nicht zuletzt bedingt durch verbesserte Erfassungstechnologien, amtliche 3D-Kataster, offene Geodaten oder Geodaten-Crowdsourcing. Die Anwendungsfelder für virtuelle 3D-Stadtmodelle sind vielfältig. Sie reichen von Stadtplanung und Stadtentwicklung, Umweltanalysen und -simulationen, über Katastrophen- und Risikomanagement, bis hin zu Navigationssystemen und interaktiven Stadtkarten. Die Verbreitung und interaktive Nutzung von virtuellen 3D-Stadtmodellen stellt hierbei eine technische Kernfunktionalität für fast alle entsprechenden Systeme, Services und Anwendungen dar. Aufgrund der Komplexität und Größe virtueller 3D-Stadtmodelle stellt ihre Verwaltung, ihre Verarbeitung und insbesondere ihre Visualisierung eine große Herausforderung dar. Daher können zum Beispiel mobile Anwendungen virtuelle 3D-Stadtmodelle, wegen ihres massiven Datenvolumens und ihrer Datenheterogenität, kaum effizient handhaben. Die effiziente Nutzung von Rechenressourcen, wie zum Beispiel Prozessorleistung, Hauptspeicher, Festplattenspeicher und Grafikhardware, bildet daher eine Schlüsselanforderung an die Softwaretechnik in diesem Bereich. Heutige Ansätze beruhen häufig auf komplexen Clients, zu denen 3D-Modelldaten (z.B. 3D-Netze und 2D- Texturen) transferiert werden müssen und die das Rendering dieser Daten selbst ausführen. Nachteilig ist dabei unter anderem, dass sie die meisten Stufen der Visualisierungspipeline auf der Client-Seite ausführen müssen. Es ist daher softwaretechnisch schwer, robuste Cross-Plattform-Implementierungen für diese Clients zu erstellen, da hoch qualitative 3D-Rendering-Prozesse nicht unwesentlich von lokalen computergrafischen Ressourcen abhängen. Die webbasierte Bereitstellung virtueller 3D-Stadtmodelle beruht auf einer serviceorientierten Softwarearchitektur. Diese besteht aus spezifischen funktionalen Komponenten für die Konstruktion von mobilen oder webbasierten Anwendungen für die Verarbeitung und Visualisierung von komplexen virtuellen 3D-Stadtmodellen. Diese Arbeit beschreibt entsprechende Konzepte und Techniken für eine webbasierte Bereitstellung von virtuellen 3D-Stadtmodellen. Es werden insbesondere Services vorgestellt, die eine effiziente Entwicklung von Anwendungen für virtuelle 3D-Stadtmodelle auf Basis eines feingranularen Dienstekonzepts ermöglichen. Die Arbeit gliedert sich in fünf thematische Hauptbeiträge: 1. Ein servicebasiertes Konzept für die bildbasierte Bereitstellung von virtuellen 3D-Stadtmodellen: Es wird ein konzeptioneller Rahmen für eine Reihe von Services in Bezug auf das Rendering und die bildbasierte Bereitstellung virtueller 3D-Stadtmodelle eingeführt. 2. 3D-Rendering-Service für virtuelle 3D-Stadtmodelle: Dieser Service stellt eine effiziente, hochqualitative 3D-Renderingfunktionalität für virtuelle 3D-Stadtmodelle bereit. Insbesondere werden Anforderungen, wie zum Beispiel standardisierte Datenformate, massive Modelltexturierung, detaillierte 3D-Geometrien, Zugriff auf assoziierte Fachdaten und fehlende Frame-zu-Frame-Kohärenz bei parallelen Serviceanfragen erfüllt. Der Service unterstützt zudem die thematische und gestalterische Stilisierung der Darstellungen auf Basis einer erweiterbaren Grafikeffektbibliothek. 3. Layered-Map-Service für virtuelle 3D-Stadtmodelle: Dieser Service generiert eine kartenverwandte Darstellung in Form einer Schrägansicht auf virtuelle 3D-Stadtmodelle in hoher Renderingqualität. Er weist eine schnelle initiale Ladezeit, eine einfache, kartenbasierte Interaktion und Zugang zu den Fachdaten des virtuellen 3D-Stadtmodells auf. Mittels eines konfigurierbaren Client-Frameworks können damit sowohl mobile, als auch webbasierte Anwendungen für virtuelle 3D Stadtmodelle einfach erstellt werden. 4. Video-Service für virtuelle 3D-Stadtmodelle: Dieser Service erstellt und synthetisiert Videos aus virtuellen 3D-Stadtmodellen. Nutzern wird ermöglicht 3D-Kamerapfade auf einfache Weise über eine kartenbasierte Nutzungsschnittstelle zu erstellen. Weiterhin können die Szeneninhalte, die Stilisierung der Szene, sowie Bild- und Textüberlagerungen konfigurieren und Übergänge zwischen einzelnen Szenen festzulegen, ohne dabei clientseitige 3D-Rendering-Fähigkeiten vorauszusetzen. Das System reduziert den manuellen Aufwand für die Produktion von Videos für virtuelle 3D-Stadtmodelle erheblich. Videos können zudem automatisiert aktualisiert werden, wenn sich zugrunde liegende Daten ändern. 5. Servicebasierte Kamerainteraktion Die vorgestellten Services unterstützen aufgabenbasierte 3D-Kamerainteraktionen und deren Integration in servicebasierte Visualisierungsanwendungen. Es wird gezeigt, wie webbasierte interaktive Anwendungen für virtuelle 3D-Stadtmodelle mit Hilfe von Kameraservices umgesetzt werden können. Diese Beiträge bieten einen Rahmen für das Design, die Implementierung und die Bereitstellung zukünftiger webbasierter Anwendungen, Systeme und Services für virtuelle 3D-Stadtmodelle. Der Ansatz zeigt, wie die meist komplexe, monolithische Funktionalität heutiger 3D-Geovisualisierungssysteme in unabhängig entworfene, implementierte und betriebene serviceorientierte Einheiten zerlegt werden kann. In diesem Sinne stellt diese Arbeit auch einen Beitrag für die Entwicklung von Microservice-Architekturen für 3D-Geovisualisierungssysteme bereit – eine aktuelle Herausforderung in der Softwaresystemtechnik in Hinblick auf den Aufbau skalierender IT-Lösungen. KW - 3D city model KW - 3D geovisualization KW - 3D portrayal KW - serverside 3D rendering KW - CityGML KW - 3D-Stadtmodell KW - 3D-Geovisualisierung KW - 3D-Rendering KW - serverseitiges 3D-Rendering KW - serviceorientierte Architekturen KW - service-oriented architectures Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-428053 ER - TY - THES A1 - Leeratanavalee, Sorasak T1 - Weak Hypersubstitutions Y1 - 2002 ER - TY - THES A1 - Hayn, Michael T1 - Wavelet analysis and spline modeling of geophysical data on the sphere Y1 - 2010 CY - Potsdam ER - TY - THES A1 - Solopow, Sergej T1 - Wavelength dependent demagnetization dynamics in Co2MnGa Heusler-alloy T1 - Wellenlängeabhängige Entmagnetisierungsdynamik in Co2MnGa Heusler-Legierung N2 - In dieser Arbeit haben wir ultraschnelle Entmagnetisierung an einer Heusler-Legierung untersucht. Es handelt sich um ein Halbmetall, das sich in einer ferromagnetischen Phase befindet. Die Besonderheit dieses Materials besteht im Aufbau einer Bandstruktur. Diese bildet Zustandsdichten, in der die Majoritätselektronen eine metallische Bänderbildung aufweisen und die Minoritätselektronen eine Bandlücke in der Nähe des Fermi-Niveaus aufweisen, das dem Aufbau eines Halbleiters entspricht. Mit Hilfe der Pump-Probe-Experimente haben wir zeitaufgelöste Messungen durchgeführt. Für das Pumpen wurden ultrakurze Laserpulse mit einer Pulsdauer von 100 fs benutzt. Wir haben dabei zwei verschiedene Wellenlängen mit 400 nm und 1240 nm benutzt, um den Effekt der Primäranregung und der Bandlücke in den Minoritätszuständen zu untersuchen. Dabei wurde zum ersten Mal OPA (Optical Parametrical Amplifier) für die Erzeugung der langwelligen Pulse an der FEMTOSPEX-Beamline getestet und erfolgreich bei den Experimenten verwendet. Wir haben Wellenlängen bedingte Unterschiede in der Entmagnetisierungszeit gemessen. Mit der Erhöhung der Photonenenergie ist der Prozess der Entmagnetisierung deutlich schneller als bei einer niedrigeren Photonenenergie. Wir verknüpften diese Ergebnisse mit der Existenz der Energielücke für Minoritätselektronen. Mit Hilfe lokaler Elliot-Yafet-Streuprozesse können die beobachteten Zeiten gut erklärt werden. Wir haben in dieser Arbeit auch eine neue Probe-Methode für die Magnetisierung angewandt und somit experimentell deren Effektivität, nämlich XMCD in Refletiongeometry, bestätigen können. Statische Experimente liefern somit deutliche Indizien dafür, dass eine magnetische von einer rein elektronischen Antwort des Systems getrennt werden kann. Unter der Voraussetzung, dass die Photonenenergie der Röntgenstrahlung auf die L3 Kante des entsprechenden Elements eingestellt, ein geeigneter Einfallswinkel gewählt und die zirkulare Polarisation fixiert wird, ist es möglich, diese Methode zur Analyse magnetischer und elektronischer Respons anzuwenden. N2 - In this work we investigated ultrafast demagnetization in a Heusler-alloy. This material belongs to the halfmetal and exists in a ferromagnetic phase. A special feature of investigated alloy is a structure of electronic bands. The last leads to the specific density of the states. Majority electrons form a metallic like structure while minority electrons form a gap near the Fermi-level, like in semiconductor. This particularity offers a good possibility to use this material as model-like structure and to make some proof of principles concerning demagnetization. Using pump-probe experiments we carried out time-resolved measurements to figure out the times of demagnetization. For the pumping we used ultrashort laser pulses with duration around 100 fs. Simultaneously we used two excitation regimes with two different wavelengths namely 400 nm and 1240 nm. Decreasing the energy of photons to the gap size of the minority electrons we explored the effect of the gap on the demagnetization dynamics. During this work we used for the first time OPA (Optical Parametrical Amplifier) for the generation of the laser irradiation in a long-wave regime. We tested it on the FETOSPEX-beamline in BASSYII electron storage ring. With this new technique we measured wavelength dependent demagnetization dynamics. We estimated that the demagnetization time is in a correlation with photon energy of the excitation pulse. Higher photon energy leads to the faster demagnetization in our material. We associate this result with the existence of the energy-gap for minority electrons and explained it with Elliot-Yaffet-scattering events. Additionally we applied new probe-method for magnetization state in this work and verified their effectivity. It is about the well-known XMCD (X-ray magnetic circular dichroism) which we adopted for the measurements in reflection geometry. Static experiments confirmed that the pure electronic dynamics can be separated from the magnetic one. We used photon energy fixed on the L3 of the corresponding elements with circular polarization. Appropriate incidence angel was estimated from static measurements. Using this probe method in dynamic measurements we explored electronic and magnetic dynamics in this alloy. KW - magnetizationdynamic KW - XMCD KW - Heusler-alloy KW - Magnetisierungsdynamik KW - XMCD KW - Heusler-Legierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427860 ER - TY - THES A1 - Fortes Martín, Rebeca T1 - Water-in-oil microemulsions as soft-templates to mediate nanoparticle interfacial assembly into hybrid nanostructures T1 - Wasser-in-Öl Mikroemulsionen als Soft-Templat für die Grenzfläche-Anordnung von Nanopartikeln in hybride Nanostrukturen T1 - Microemulsiones de aceite-en-agua como estructuras templadas blandas para el ensamblaje de nanoparticulas en su interfase dando nanoestructuras híbridas N2 - Hybrid nanomaterials offer the combination of individual properties of different types of nanoparticles. Some strategies for the development of new nanostructures in larger scale rely on the self-assembly of nanoparticles as a bottom-up approach. The use of templates provides ordered assemblies in defined patterns. In a typical soft-template, nanoparticles and other surface-active agents are incorporated into non-miscible liquids. The resulting self-organized dispersions will mediate nanoparticle interactions to control the subsequent self-assembly. Especially interactions between nanoparticles of very different dispersibility and functionality can be directed at a liquid-liquid interface. In this project, water-in-oil microemulsions were formulated from quasi-ternary mixtures with Aerosol-OT as surfactant. Oleyl-capped superparamagnetic iron oxide and/or silver nanoparticles were incorporated in the continuous organic phase, while polyethyleneimine-stabilized gold nanoparticles were confined in the dispersed water droplets. Each type of nanoparticle can modulate the surfactant film and the inter-droplet interactions in diverse ways, and their combination causes synergistic effects. Interfacial assemblies of nanoparticles resulted after phase-separation. On one hand, from a biphasic Winsor type II system at low surfactant concentration, drop-casting of the upper phase afforded thin films of ordered nanoparticles in filament-like networks. Detailed characterization proved that this templated assembly over a surface is based on the controlled clustering of nanoparticles and the elongation of the microemulsion droplets. This process offers versatility to use different nanoparticle compositions by keeping the surface functionalization, in different solvents and over different surfaces. On the other hand, a magnetic heterocoagulate was formed at higher surfactant concentration, whose phase-transfer from oleic acid to water was possible with another auxiliary surfactant in ethanol-water mixture. When the original components were initially mixed under heating, defined oil-in-water, magnetic-responsive nanostructures were obtained, consisting on water-dispersible nanoparticle domains embedded by a matrix-shell of oil-dispersible nanoparticles. Herein, two different approaches were demonstrated to form diverse hybrid nanostructures from reverse microemulsions as self-organized dispersions of the same components. This shows that microemulsions are versatile soft-templates not only for the synthesis of nanoparticles, but also for their self-assembly, which suggest new approaches towards the production of new sophisticated nanomaterials in larger scale. N2 - Hybride Nanomaterialen ermöglichen die Kombination von individuellen Eigenschaften jeder Art von Nanopartikeln. Einige Strategien für die Herstellung neuer großskaliger Nanostrukturen beruhen auf der Selbstassemblierung von Nanopartikeln über einen Bottom-up-Ansatz. Die Nutzung von Templatstrukturen ermöglicht Anordnungen in definierten Mustern. In einem typischen Soft-Templat werden Nanopartikel und andere oberflächenaktive Wirkstoffe in nicht-mischbare Flüssigkeiten eingebracht. Die resultierenden selbst-organisierten Dispersionen beeinflussen die Nanopartikel Interaktionen und kontrollieren die nachfolgende Selbstassemblierung. Insbesondere Interaktionen zwischen Nanopartikeln mit sehr unterschiedlicher Dispergierbarkeit und Funktionalität können Interaktionen an einer Flüssig-Flüssig Grenzfläche gerichtet werden. In diesem Forschungsprojekt wurden Wasser-in-Öl Mikroemulsionen aus quasi-ternären Mischungen mit Aerosol-OT als Tensid hergestellt. Oleyl-beschichtete superparamagnetische Eisenoxid und/oder Silber Nanopartikel wurden in der kontinuierlichen Ölphase eingebracht, während die Polyethyleneimin-stabilisierten Gold Nanopartikel in feinverteilte Wassertröpfchen inkorporiert wurden. Jede Sorte von Nanopartikeln kann den Tensidfilm und die Tröpfchen-Interaktionen auf verschiedene Weise beeinflussen, und seine Kombination führt dabei zu synergetischen Effekten. Die Anordnung von Nanopartikeln an der Grenzfläche basiert auf der Phasentrennung. Auf der einen Seite, bildeten sich aus einem zweiphasigen Winsor II System mit niedrigen Tensid Konzentrationen durch Evaporation der oberen Phase dünne Schichten aus geordneten Nanopartikeln in Form von Filament-Netzen aus. Eine detaillierte Charakterisierung zeigte, dass die Filament-artige Strukturierung auf ein kontrolliertes Nanopartikeln-Clustering und auf die Ausdehnung der Mikroemulsions-Tröpfchen zurückzuführen ist. Dieser Prozess eröffnet flexible Einsatzmöglichkeiten für unterschiedliche Nanopartikel Kompositionen, indem die Oberflächenfunktionalisierung in unterschiedlichen Lösungsmitteln erhalten bleibt, und auch für verschiedenen Lösungsmitteln und über verschiedene Flächen. Auf der anderen Seite wurde ein magnetisches Heterokoagulat in höheren Tensid Konzentration hergestellt, dessen Phasentransfer von Ölsäure in Wasser mit einem anderen zusätzlichen Tensid in einer Ethanol-Wasser Mischung ermöglicht wurde. In Abhängigkeit von der Ausgangstemperatur der initialen Komponenten konnten definierte magnetisch-stimulierbare Öl-in-Wasser Nanostrukturen erhaltet werden. Dabei gelang es Wasser-dispergierbare Nanopartikelkompartimente in eine Matrix-Hülle aus Öl-dispergierbaren Nanopartikeln einzubetten. In dieser Arbeit wurden zwei verschiedene Wege aufgezeigt, um hybride Nanostrukturen aus inversen Mikroemulsionen selbst-organisiert herzustellen. Dies belegt, dass Mikroemulsions-Template nicht nur für die Nanopartikel Synthese geeignet sind, sondern auch für die Herstellung filamentartiger, selbstorganisierter Systeme. Es eröffnen sich hiermit neue Zugänge für die selbstorganisierte Strukturierung von Nanopartikeln auf der Mikrometerskala. N2 - Los nanomateriales híbridos ofrecen la combinación de propiedades individuales de diferentes tipos de nanopartículas. Algunas estrategias para el desarrollo de nuevas nanoestructuras en mayor escala se basan en el auto-ensamblaje (self-assembly) de nanopartículas, como una estrategia “de abajo hacia arriba” (bottom-up). El uso de estructuras de plantilla (templates) proporciona ensamblajes ordenados de formas definidas. En una plantilla blanda típica, las nanopartículas y otros agentes de actividad superficial se incorporan en líquidos no miscibles. Esto da lugar a dispersiones auto-organizadas que mediarán las interacciones entre las nanopartículas, para controlar su auto-ensamblaje resultante. Especialmente las interacciones entre nanopartículas de dispersibilidad y funcionalidades muy diferentes pueden ser redirigidas a una interfase líquido-líquido. En este proyecto se formularon microemulsiones de agua-en-aceite a partir de mezclas cuasi-ternarias con Aerosol-OT (docusato de sodio) como tensioactivo. Las nanopartículas cubiertas de ligandos oleicos, de óxido de hierro superparamagnéticas o de plata, se incorporaron en la fase orgánica continua, mientras que las nanopartículas de oro estabilizadas por polietilenimina fueron confinadas en las gotículas de agua dispersas. Cada tipo de nanopartícula puede modular de fomas muy diversas la capa de tensioactivo y las interacciones entre gotículas, y además su combinación resulta en efectos sinérgicos. Los ensamblajes interfase de nanopartículas se obtuvieron bajo procesos de separación entre fases. Por un lado, a partir de un sistema bifásico de Winsor del tipo II con baja concentración del tensioactivo, la deposición y evaporación de una gota sobre una superficie (drop-casting) de la fase superior proporcionó películas finas de nanopartículas ordenadas como redes de filamentos. Su caracterización detallada probó que este ensamblaje por plantilla sobre una superficie se basa en un agrupamiento (clustering) controlado entre nanopartículas y en la elongación de las gotículas de microemulsiones. Este proceso ofrece versatilidad para usar diferentes composiciones de nanopartículas siempre que su funcionalidad en su superficie se mantenga, además de poder usar diferentes disolventes y sobre diferentes superficies. Por otro lado, un heterocoagulado magnético se formó sobre concentraciones más altas del tensioactivo, y su transferencia de fase desde ácido oleico a agua fue posible usando otro tensioactivo auxiliar en una mezcla de agua y etanol. Cuando los componentes iniciales fueron mezclados al principio bajo calentamiento, se obtuvieron nanoestucturas definidas de aceite-en-agua que responden a un imán, las cuales consisten de dominios de nanopartículas dispersibles en agua que se rodean por un embalaje (matrix-shell) de nanopartículas dispersibles en fase oleosa. De este modo, se demostraron dos propuestas para formar diversos tipos de nanoestructuras híbridas a partir de microemulsiones inversas como dispersiones auto-organizadas de unos mismos componentes. Esto demuestra que las microemulsiones constituyen estructuras de plantilla blandas no sólo para la síntesis de nanopartículas, sino también para su auto-ensamblaje, lo que sugiere novedosas estrategias para la producción de nuevos nanomateriales sofisticados en mayor escala. KW - microemulsions KW - nanoparticles KW - surfactants KW - Colloid Chemistry KW - soft-templates KW - nanostructures KW - nanoparticle assembly KW - hybrid nanostructures KW - Kolloidchemie KW - hybride Nanostrukturen KW - Mikroemulsionen KW - Nanopartikeln-Anordnung KW - Nanopartikeln KW - Nanostrukturen KW - Soft-Templaten KW - Tenside KW - Química de Coloides KW - nanoestructuras híbridas KW - microemulsiones KW - ensamblaje de nanopartículas KW - nanopartículas KW - nanoestructuras KW - estructuras templadas blandas KW - tensioactivos Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571801 ER - TY - THES A1 - Burdack, Doreen T1 - Water management policies and their impact on irrigated crop production in the Murray-Darling Basin, Australia T1 - Wasserregulierungsstrategien und deren Auswirkungen auf bewässerte Feldfrüchteproduktion im Murray-Darling Flusseinzugsgebiet, Australien N2 - The economic impact analysis contained in this book shows how irrigation farming is particularly susceptible when applying certain water management policies in the Australian Murray-Darling Basin, one of the world largest river basins and Australia’s most fertile region. By comparing different pricing and non-pricing water management policies with the help of the Water Integrated Market Model, it is found that the impact of water demand reducing policies is most severe on crops that need to be intensively irrigated and are at the same time less water productive. A combination of increasingly frequent and severe droughts and the application of policies that decrease agricultural water demand, in the same region, will create a situation in which the highly water dependent crops rice and cotton cannot be cultivated at all. N2 - Die ökonomische Folgenanalyse in diesem Buch zeigt, dass insbesondere Landwirte, die stark auf Bewässerung angewiesen sind, von Wasserregulierungsstrategien im Australischen Murray-Darling Becken betroffen sind. Dieses Gebiet ist eines der größten Flussbecken weltweit und zugleich Australiens fruchtbarste Region. Durch den Vergleich von verschiedenen Preisstrategien und anderen Ansätzen konnte mit Hilfe des Water Integrated Market Models herausgefunden werden, dass die Auswirkungen auf hochgradig wasserabhängige Feldfrüchte mit geringeren Wasserproduktivitäten am stärksten sind. Die Kombination von häufigeren und intensiveren Trockenzeiten und einer Regulierungspolitik mit dem Ziel, die Nachfrage nach Wasser zu verringern, führt dazu, dass in ein und derselben Region hochgradig wasserabhängige Feldfrüchte wie Reis und Baumwolle mit geringeren Wasserproduktivitäten nicht mehr angebaut werden können. T3 - Potsdam Economic Studies - 4 KW - Wasserregulierung KW - Wasserpolitik KW - Bewässerung KW - landwirtschaftliche Produktion KW - Australien KW - water management KW - water policy KW - irrigation KW - agricultural production KW - Australia Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72245 SN - 978-3-86956-306-0 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Munz, Matthias T1 - Water flow and heat transport modelling at the interface between river and aquifer T1 - Wasserfluss- und Wärmetransportmodellierung an der Schnittstelle zwischen Fluss und Grundwasserleiter N2 - The functioning of the surface water-groundwater interface as buffer, filter and reactive zone is important for water quality, ecological health and resilience of streams and riparian ecosystems. Solute and heat exchange across this interface is driven by the advection of water. Characterizing the flow conditions in the streambed is challenging as flow patterns are often complex and multidimensional, driven by surface hydraulic gradients and groundwater discharge. This thesis presents the results of an integrated approach of studies, ranging from the acquisition of field data, the development of analytical and numerical approaches to analyse vertical temperature profiles to the detailed, fully-integrated 3D numerical modelling of water and heat flux at the reach scale. All techniques were applied in order to characterize exchange flux between stream and groundwater, hyporheic flow paths and temperature patterns. The study was conducted at a reach-scale section of the lowland Selke River, characterized by distinctive pool riffle sequences and fluvial islands and gravel bars. Continuous time series of hydraulic heads and temperatures were measured at different depths in the river bank, the hyporheic zone and within the river. The analyses of the measured diurnal temperature variation in riverbed sediments provided detailed information about the exchange flux between river and groundwater. Beyond the one-dimensional vertical water flow in the riverbed sediment, hyporheic and parafluvial flow patterns were identified. Subsurface flow direction and magnitude around fluvial islands and gravel bars at the study site strongly depended on the position around the geomorphological structures and on the river stage. Horizontal water flux in the streambed substantially impacted temperature patterns in the streambed. At locations with substantial horizontal fluxes the penetration depths of daily temperature fluctuations was reduced in comparison to purely vertical exchange conditions. The calibrated and validated 3D fully-integrated model of reach-scale water and heat fluxes across the river-groundwater interface was able to accurately represent the real system. The magnitude and variations of the simulated temperatures matched the observed ones, with an average mean absolute error of 0.7 °C and an average Nash Sutcliffe Efficiency of 0.87. The simulation results showed that the water and heat exchange at the surface water-groundwater interface is highly variable in space and time with zones of daily temperature oscillations penetrating deep into the sediment and spots of daily constant temperature following the average groundwater temperature. The average hyporheic flow path temperature was found to strongly correlate with the flow path residence time (flow path length) and the temperature gradient between river and groundwater. Despite the complexity of these processes, the simulation results allowed the derivation of a general empirical relationship between the hyporheic residence times and temperature patterns. The presented results improve our understanding of the complex spatial and temporal dynamics of water flux and thermal processes within the shallow streambed. Understanding these links provides a general basis from which to assess hyporheic temperature conditions in river reaches. N2 - Die Interaktion zwischen Oberflächenwasser und Grundwasser hat einen entscheidenden Einfluss auf die Wasserqualität und die ökologische Beschaffenheit von Seen, Flüssen und aquatischen Ökosystemen. Der Austausch von Wärme und gelösten Substanzen zwischen diesen beiden Kompartimenten ist maßgeblich durch die Austauschraten und die Strömungsrichtung des Wassers beeinflusst. Somit ist die Charakterisierung dieser beiden Größen in dem Übergangsbereich zwischen Oberflächenwasser und Grundwasser von besonderer Bedeutung. Diese Arbeit präsentiert die Entwicklung und Anwendung von Methoden zur Untersuchung der zeitlichen und räumlichen Dynamik des Wasser- und Wärmeflusses an der Schnittstelle zwischen Oberflächenwasser und Grundwasser. Die Arbeit besteht im Wesentlichen aus zwei Schwerpunkten. Der erste Schwerpunkt beinhaltet die Entwicklung und Bewertung von analytischen und numerischen Methoden zur Bestimmung der horizontalen Strömungsrichtung und Austauschraten unter Verwendung von kontinuierlich gemessenen Temperaturzeitreihen entlang vertikaler Profile im gesättigten Sediment. Flussbetttemperaturen können relativ einfach und kostengünstig entlang eines Flussabschnittes in verschiedenen Tiefen und unterschiedlichsten Flussbettsedimenten (organisch, sandig bis grob kiesig) gemessen werden. Die Hauptverwendung solcher Temperaturprofile ist bisher auf die analytische Quantifizierung vertikaler Austauschraten limitiert. Im Rahmen dieser Arbeit wurde ein Ansatz entwickelt, der eine punktuelle Ermittlung der horizontalen Strömungs-komponente, basierend auf der Veränderung der täglichen Temperaturamplitude mit zunehmender Tiefe, ermöglicht. Weiterhin wurde ein inverser, numerischer Ansatz entwickelt, der die ein-dimensionale Wärmetransportgleichung numerisch löst und mittels inverser Optimierungsalgorithmen die simulierten Temperaturen bestmöglich an die gemessenen Flussbetttemperaturen anpasst. Diese Methode ermöglicht die automatische, zeitlich variable Quantifizierung vertikaler Austauschraten an der Schnittstelle zwischen Oberflächenwasser und Grundwasser sowie eine einfache Unsicherheitsbetrachtung aufgrund der zugrunde liegenden Parameterunsicherheiten. Der zweite Schwerpunkt der Arbeit liegt auf der Anwendung der entwickelten Methoden und der Erstellung eines dreidimensionalen Simulationsmodelles entlang eines Flussabschnittes der Selke. Numerische Strömungs- und Stofftransportmodelle ermöglichen die gekoppelte Simulation von Fließprozessen im offenen Gerinne und im darunter liegenden porösen Medium. Die Parametrisierung des Modells erfolgte anhand empirischer Daten die im Untersuchungsgebiet detailliert erhoben wurden. Die Simulationsergebnisse zeigten zum einen gebietsspezifische Gegebenheiten auf, ermöglichten darüber hinaus jedoch auch die Beschreibung allgemeiner Muster und Zusammenhänge welche die Wasserfluss- und Wärmetransportprozesse an der Schnittstelle zwischen Oberflächenwasser und Grundwasser beeinflussen. So zeigten die Ergebnisse dieser Arbeit, dass maßgeblich die natürlich vorhandenen Flussbettstrukturen die Austauschraten und die Strömungsrichtung zwischen Oberflächenwasser und Grundwasser beeinflussen und somit den hyporheischen Austausch bestimmen. Wichtige Einflussfaktoren auf die untersuchten Austauschprozesse waren die Lage im Gerinne relativ zur Flussbettstruktur und der vorherrschende Wasserstand (Abfluss). Bedingt durch den Wasser- und Wärmeaustausch prägten sich im Untersuchungsgebiet Bereiche aus in denen die täglichen Temperaturschwingungen tief in das Sediment eindringen (Anstrombereich der Flussbettstrukturen), als auch Bereiche in denen relativ konstante Temperaturen, nahe der Grundwassertemperatur, vorherrschten. Die durchschnittliche Temperatur in der hyporheischen Zone wurde durch die saisonalen Temperaturschwankungen im Oberflächenwasser dominiert, wobei die Temperaturen entlang einzelner Fließpfade stark von der Verweilzeit des Oberflächen- oder Grundwassers im gesättigten Sediment und dem Temperaturgradienten zwischen Fluss und Grundwasser abhängig waren. Trotz der Komplexität dieser Zusammenhänge, ermöglichten die Simulationsergebnisse die Ableitung einer allgemeinen empirischen Beziehung zwischen den hyporheischen Verweilzeiten und Temperaturmustern. Sowohl die Verweilzeiten als auch die Temperatur im gesättigten Sediment haben einen entscheiden Einfluss auf biogeochemische Prozesse in dem Übergangsbereich zwischen Oberflächenwasser und Grundwasser und sind somit von besonderer Bedeutung für die Wasserqualität von Seen, Flüssen und aquatischen Ökosystemen. KW - surface water-groundwater interaction KW - Oberflächenwasser-Grundwasser Interaktion KW - hyporheic zone KW - hyporheische Zone KW - numerical modeling KW - numerische Modellierung KW - heat transport KW - Wärmetransport KW - temperature KW - Temperatur Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404319 ER - TY - THES A1 - Janetschek, Hannah T1 - Water development programs in India T1 - Entwicklungszusammenarbeit im Wassersektor Indiens BT - governance processes and effectiveness BT - Governanceprozesse und Effektivität N2 - In the past decades, development cooperation (DC) led by conventional bi- and multilateral donors has been joined by a large number of small, private or public-private donors. This pluralism of actors raises questions as to whether or not these new donors are able to implement projects more or less effectively than their conventional counterparts. In contrast to their predecessors, the new donors have committed themselves to be more pragmatic, innovative and flexible in their development cooperation measures. However, they are also criticized for weakening the function of local civil society and have the reputation of being an intransparent and often controversial alternative to public services. With additional financial resources and their new approach to development, the new donors have been described in the literature as playing a controversial role in transforming development cooperation. This dissertation compares the effectiveness of initiatives by new and conventional donors with regard to the provision of public goods and services to the poor in the water and sanitation sector in India. India is an emerging country but it is experiencing high poverty rates and poor water supply in predominantly rural areas. It lends itself for analyzing this research theme as it is currently being confronted by a large number of actors and approaches that aim to find solutions for these challenges . In the theoretical framework of this dissertation, four governance configurations are derived from the interaction of varying actor types with regard to hierarchical and non-hierarchical steering of their interactions. These four governance configurations differ in decision-making responsibilities, accountability and delegation of tasks or direction of information flow. The assumption on actor relationships and steering is supplemented by possible alternative explanations in the empirical investigation, such as resource availability, the inheritance of structures and institutions from previous projects in a project context, gaining acceptance through beneficiaries (local legitimacy) as a door opener, and asymmetries of power in the project context. Case study evidence from seven projects reveals that the actors' relationship is important for successful project delivery. Additionally, the results show that there is a systematic difference between conventional and new donors. Projects led by conventional donors were consistently more successful, due to an actor relationship that placed the responsibility in the hands of the recipient actors and benefited from the trust and reputation of a long-term cooperation. The trust and reputation of conventional donors always went along with a back-up from federal level and trickled down as reputation also at local level implementation. Furthermore, charismatic leaders, as well as the acquired structures and institutions of predecessor projects, also proved to be a positive influencing factor for successful project implementation. Despite the mixed results of the seven case studies, central recommendations for action can be derived for the various actors involved in development cooperation. For example, new donors could fulfill a supplementary function with conventional donors by developing innovative project approaches through pilot studies and then implementing them as a supplement to the projects of conventional donors on the ground. In return, conventional donors would have to make room the new donors by integrating their approaches into already programs in order to promote donor harmonization. It is also important to identify and occupy niches for activities and to promote harmonization among donors on state and federal sides. The empirical results demonstrate the need for a harmonization strategy of different donor types in order to prevent duplication, over-experimentation and the failure of development programs. A transformation to successful and sustainable development cooperation can only be achieved through more coordination processes and national self-responsibility. N2 - In der Entwicklungszusammenarbeit (EZ) wurden in den vergangenen Jahrzehnten herkömmliche bi- und multilaterale EZ-Geber durch eine Vielzahl kleinerer, privater oder privat-öffentlicher Geber ergänzt. Es stellt sich nun die Frage nach der Effektivität dieser neuen Geber im Vergleich zu den bisherigen. Die neuen Geber setzen ebenfalls EZ-Maßnahmen um und haben sich einem Mehr an Pragmatismus, Innovation und Flexibilität verschrieben. Sie stehen jedoch auch in der Kritik, die Funktion der lokalen Zivilgesellschaft zu schwächen und in fragilen Kontexten eine intransparente und oft umstrittene Alternative zur staatlichen Daseinsvorsorge darzustellen. Das transformative Potential dieser neuen Geber durch zusätzliche EZ-Gelder und für bessere Entwicklung ist in der Literatur umstritten. In der vorliegenden Dissertation erfolgt ein Vergleich der neuen und herkömmlichen Geber hinsichtlich ihrer Effektivität in der Erbringung von öffentlichen Gütern und Dienstleistungen im Wasser- und Abwasserbereich in Indien. Indien bietet sich als Länderkontext für die Untersuchung dieser Forschungsfrage insbesondere an, da es sich als Schwellenland mit gegenwärtig immer noch sehr hoher Armut und schlechter Wasserversorgung in vorwiegend ländlichen Gebieten einer Vielzahl von Akteuren und Ansätzen zur Lösung dieser Herausforderungen gegenüber sieht. Im theoretischen Rahmen der Dissertation werden aus dem Zusammenspiel von Akteurstypen und hierarchischer und nicht-hierarchischer Steuerung, vier Governance-Typen entwickelt. Diese vier Steuerungsmodi unterscheiden sich hinsichtlich der Entscheidungsfindung, Rechenschaftslegung und Delegierung von Aufgaben bzw. Richtung des Informationsflusses. Diese Governance-Typen werden in der empirischen Untersuchung um mögliche alternative Erklärungen ergänzt wie Ressourcenverfügbarkeit, Bedeutung von vorhergehenden Projekten in einem Projektkontext, lokale Legitimität als Türöffner und Machtasymmetrien im Projektkontext. Die empirische Analyse von sieben Fällen macht deutlich, dass die Akteursbeziehung eine notwendige Bedingung für erfolgreiche und eigenständige Projektumsetzung in der EZ ist. Darüber hinaus belegen die Ergebnisse, dass es einen systematischen Unterschied zwischen herkömmlichen und neuen Gebern gibt. Die Projekte der herkömmlichen Geber waren durchweg erfolgreicher und wiesen alle eine Akteursinteraktion auf, die die Verantwortung in die Hände des EZ-Empfängers legte und darüber hinaus von Vertrauen und Reputation einer langjährigen Zusammenarbeit profitierten. Der Erfolg der herkömmlichen Geber basierte vorwiegend auf der Rückendeckung der lokalen Umsetzung durch die nationale Ebene. Neben charismatischen Führungsfiguren stellten sich auch übernommene Strukturen und Akteure von Vorgängerprojekten als positive Einflussfaktoren für eine erfolgreiche Projektumsetzung heraus. Aus den Erfolgen und Misserfolgen der sieben hier untersuchten Fälle lassen sich zentrale Handlungsempfehlungen für die unterschiedlichen Akteure der EZ-Umsetzung ableiten. So könnten neue Geber eine Ergänzungsfunktion zu herkömmlichen Gebern erfüllen, indem sie durch Pilotstudien innovative Projektansätze entwickeln und diese dann als Ergänzung zu den Projekten herkömmlicher Geber vor Ort umsetzen. Herkömmliche Geber müssten im Gegenzug in ihren Programmen Raum für die Integration der Ansätze von neuen Gebern schaffen, um so eine Geberharmonisierung zu fördern. Auf staatlicher und bundesstaatlicher Nehmerseite gilt es ebenfalls, Nischen für Aktivitäten zu identifizieren und zu besetzen und die Harmonisierung unter den Gebern zu fördern. Die empirischen Ergebnisse belegen die Notwendigkeit einer Harmonisierungsstrategie von unterschiedlichen Gebertypen, um vor Ort Duplikation, Experimente und Misserfolge von EZ-Programmen zu verhindern. Eine Transformation zu einer erfolgreichen und nachhaltigen EZ kann nur durch mehr Koordinationsprozesse und nationale Eigenverantwortung erreicht werden. KW - governance KW - aid effectiveness KW - water development aid KW - development aid India KW - donor harmonization KW - actor interplay KW - new donors KW - conventional donors KW - donor reputation KW - governance KW - Wirksamkeit der Entwicklungszusammenarbeit KW - Wasserentwicklungszusammenarbeit KW - Entwicklungszusammenarbeit mit Indien KW - Geberharmonisierung KW - Akteursinteraktion KW - neue Geber KW - herkömmliche Geber KW - Reputation der Geber Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401337 ER - TY - THES A1 - Heiden, Sophia L. T1 - Water at α-alumina surfaces T1 - Wasser auf alpha-Aluminiumoxid-Oberflächen BT - energetics, dynamics and kinetics BT - Energetik, Dynamik und Kinetik N2 - The (0001) surface of α-Al₂O₃ is the most stable surface cut under UHV conditions and was studied by many groups both theoretically and experimentally. Reaction barriers computed with GGA functionals are known to be underestimated. Based on an example reaction at the (0001) surface, this work seeks to improve this rate by applying a hybrid functional method and perturbation theory (LMP2) with an atomic orbital basis, rather than a plane wave basis. In addition to activation barriers, we calculate the stability and vibrational frequencies of water on the surface. Adsorption energies were compared to PW calculations and confirmed PBE+D2/PW stability results. Especially the vibrational frequencies with the B3LYP hybrid functional that have been calculated for the (0001) surface are in good agreement with experimental findings. Concerning the barriers and the reaction rate constant, the expectations are fully met. It could be shown that recalculation of the transition state leads to an increased barrier, and a decreased rate constant when hybrid functionals or LMP2 are applied. Furthermore, the molecular beam scattering of water on (0001) surface was studied. In a previous work by Hass the dissociation was studied by AIMD of molecularly adsorbed water, referring to an equilibrium situation. The experimental method to obtaining this is pinhole dosing. In contrast to this earlier work, the dissociation process of heavy water that is brought onto the surface from a molecular beam source was modeled in this work by periodic ab initio molecular dynamics simulations. This experimental method results in a non-equilibrium situation. The calculations with different surface and beam models allow us to understand the results of the non-equilibrium situation better. In contrast to a more equilibrium situation with pinhole dosing, this gives an increase in the dissociation probability, which could be explained and also understood mechanistically by those calculations. In this work good progress was made in understanding the (1120) surface of α-Al₂O₃ in contact with water in the low-coverage regime. This surface cut is the third most stable one under UHV conditions and has not been studied to a great extent yet. After optimization of the clean, defect free surface, the stability of different adsorbed species could be classified. One molecular minimum and several dissociated species could be detected. Starting from these, reaction rates for various surface reactions were evaluated. A dissociation reaction was shown to be very fast because the molecular minimum is relatively unstable, whereas diffusion reactions cover a wider range from fast to slow. In general, the (112‾0) surface appears to be much more reactive against water than the (0001) surface. In addition to reactivity, harmonic vibrational frequencies were determined for comparison with the findings of the experimental “Interfacial Molecular Spectroscopy” group from Fritz-Haber institute in Berlin. Especially the vibrational frequencies of OD species could be assigned to vibrations from experimental SFG spectra with very good agreement. Also, lattice vibrations were studied in close collaboration with the experimental partners. They perform SFG spectra at very low frequencies to get deep into the lattice vibration region. Correspondingly, a bigger slab model with greater expansion perpendicular to the surface was applied, considering more layers in the bulk. Also with the lattice vibrations we could obtain reasonably good agreement in terms of energy differences between the peaks. N2 - Das wissenschaftliche Interesse an der Untersuchung von Oberflächen hat in den letzten Jahren stark zugenommen. Oberflächen spielen unter anderem in Katalyse, Nanotechnologie und Korrosionsforschung eine wichtige Rolle. Es wurden nicht nur Fortschritte im experimentellen Bereich, sondern auch in der theoretischen, computergestützten Analyse dieser Systeme erzielt. Durch leistungsstärkere Computer und ausgefeiltere Software mit immer besseren Methoden können heutzutage wesentlich größere, komplexere Systeme mit höherer Genauigkeit untersucht werden, als noch vor zehn Jahren. In dieser Arbeit wurden derartige Rechnungen angewandt, um Prozesse der α-Aluminiumoxid-Oberfläche besser zu verstehen. Es wurde in drei Teilprojekten wissenschaftlichen Fragestellungen zu Aufbau, Stabilität, Wasseradsorption, Reaktivität und Schwingungseigenschaften nachgegangen, letztere auch im Vergleich zu experimentellen Befunden. Im ersten Teilprojekt wurde auf ein bekanntes Problem der genutzten Methodik eingegangen. Wie aus der Literatur bekannt ist, werden bei dem Dichtefunktional PBE, das in dieser Arbeit hauptsächlich verwendet wurde, die Reaktionsbarrieren unterschätzt, und somit Raten überschätzt. Mit Hilfe zweier unterschiedlicher Methoden konnte dieses Problem deutlich verbessert werden, sodass die Barrieren erhöht und die Raten verringert wurden, was mehr dem Bild der Realität entspricht. Diese Methoden sind zum einen die sogenannten Hybridfunktionale und zum anderen lokale Møller-Plesset Störungstheorie. Außerdem wurden Adsorptionsenergien und Vibrationen berechnet und mit vorherigen Rechnungen, sowie experimentellen Daten verglichen. In einem zweiten Teilprojekt wurde die Streuung von Wasser an der Oberfläche untersucht. In einem Molekularstrahlexperiment konnte kürzlich nachgewiesen werden, dass sich die Dissoziationswahrscheinlichkeit im Vergleich zur Pinhole-Dosierung erhöht (beides sind Methoden um Wasser auf die Oberfläche aufzubringen). In dieser Arbeit konnte dies durch Simulationen nachgewiesen und mechanistisch aufgeklärt werden. Ein weiteres Teilprojekt befasste sich mit der (112‾0)-Oberfläche, zu der es bislang wenige Untersuchungen gibt. Hier wurde zunächst die Oberfläche ohne Wasser untersucht, um die Beschaffenheit zu erkunden. Anschließend wurde das Verhalten eines Wassermoleküls auf der Oberfläche untersucht. Es kann sowohl molekular adsorbieren, als auch in seine Bestandteile OH und H dissoziiert vorliegen, wobei die dissoziierten Strukturen wesentlich stabiler sind. Die Reaktionsraten für Dissoziation und Diffusion wurden untersucht. Erstere sind sehr schnell (Größenordnung 10¹² pro Sekunde) und letztere können einen weiten Bereich abdecken (10⁻¹³-10⁶s⁻¹). Im Vergleich mit oberflächenspezifischen Schwingungsspektroskopie-Experimenten konnte gute Übereinstimmung gefunden werden. So waren wir in der Lage, die jeweiligen OD Gruppen jeder Schwingung den experimentellen Daten zuzuweisen, wobei D hier Deuterium, also schwerer Wasserstoff ist. KW - surface science KW - alumina KW - water at alumina KW - theoretical chemistry KW - theoretische Chemie KW - Aluminiumoberfläche KW - Wasser auf Aluminiumoxid KW - Oberflächenchemie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426366 ER - TY - THES A1 - Kucharzewski, Tim T1 - Wars and the world BT - the Russian army in Afghanistan, Chechnya, Georgia, and popular culture N2 - This book offers a descriptive analysis of the Soviet/Russian wars in Afghanistan, Chechnya, and Georgia, as well as an in-depth exploration of the ways in which these wars are framed in the collective consciousness created by global popular culture. Russian and Western modalities of remembrance have been, and remain, engaged in a world war that takes place (not exclusively, but intensively) on the level of popular culture. The action/reaction dynamic, confrontational narratives and othering between the two "camps" never ceased. The Cold War, in many ways and contrary to the views of many others who hoped for the end of history, never really ended. Y1 - 2024 SN - 978-1-0364-0374-4 PB - Cambridge Scholars Publishing CY - Newcastle upon Tyne ER - TY - THES A1 - Walter, Thomas T1 - Volcano-tectonics: Volcano deformation, dynamics and structure affected by intrusions and earthquakes Y1 - 2009 CY - Potsdam ER - TY - THES A1 - Salzer, Jacqueline T. T1 - Volcano dome deformation processes analysed with high resolution InSAR and camera-based techniques Y1 - 2017 ER - TY - THES A1 - Ruch, Joël T1 - Volcano deformation analysis in the Lazufre area (central Andes) using geodetic and geological observations T1 - Vulkan Deformationsanalyse im Bereich Lazufre (Zentral-Anden) mit geodätischen und geologischen Beobachtungen N2 - Large-scale volcanic deformation recently detected by radar interferometry (InSAR) provides new information and thus new scientific challenges for understanding volcano-tectonic activity and magmatic systems. The destabilization of such a system at depth noticeably affects the surrounding environment through magma injection, ground displacement and volcanic eruptions. To determine the spatiotemporal evolution of the Lazufre volcanic area located in the central Andes, we combined short-term ground displacement acquired by InSAR with long-term geological observations. Ground displacement was first detected using InSAR in 1997. By 2008, this displacement affected 1800 km2 of the surface, an area comparable in size to the deformation observed at caldera systems. The original displacement was followed in 2000 by a second, small-scale, neighbouring deformation located on the Lastarria volcano. We performed a detailed analysis of the volcanic structures at Lazufre and found relationships with the volcano deformations observed with InSAR. We infer that these observations are both likely to be the surface expression of a long-lived magmatic system evolving at depth. It is not yet clear whether Lazufre may trigger larger unrest or volcanic eruptions; however, the second deformation detected at Lastarria and the clear increase of the large-scale deformation rate make this an area of particular interest for closer continuous monitoring. N2 - Vulkanische Deformationen in großem Maßstab, die mittels InSAR gemessen wurden, liefern neue Informationen und dadurch einen neuen Blickwinkel auf vulkan-tektonische Aktivitäten und das Verständnis von langlebigen, magmatischen Systemen. Die Destabilisierung eines solchen Systems in der Tiefe beeinflusst dauerhaft die Oberfläche durch Versatz des Bodens, magmatische Einflüsse und vulkanische Unruhen. Mit der Kombination aus kleinräumigem Bodenversatz gemessen mittels InSAR, numerischer Modellierung und langfristigen geologischen Beobachtungen, analysieren wir die Gegend um den Vulkan Lazufre in den Zentralanden, um die raumzeitliche Entwicklung der Region zu bestimmen. Bodenversatz wurde hierbei im Jahr 1997 mittels Radar-Interferrometrie (InSAR) gemessen, was eine Fläche von 1800 km² ausmacht, vergleichbar mit der Größe der Deformation des Kraters. Im Jahr 2000 wurde zusätzlich eine kleinräumige Deformation am Nachbarvulkan Lastarria entdeckt. Wir sehen räumliche als auch zeitliche Verbindungen zwischen der Deformation des Vulkans und vulkanischen Strukturen innerhalb der betroffenen Gegend. Wir folgern daraus, dass diese Beobachtungen der Ausdruck eines langlebigen, magmatischen Systems in der Tiefe an der Oberfläche sind. Es ist noch nicht klar, ob Lazufre größere vulkanische Unruhen, wie zum Beispiel Eruptionen auslösen könnte, aber die Deformation am Vulkan Lastarria und ein Anstieg der großräumigen Deformationsrate, machen diese Region interessant für eine zukünftige, kontinuierliche Überwachung. KW - Vulkan Verformung KW - InSAR KW - zentralen Anden KW - Spannungsfeld KW - volcano deformation KW - InSAR KW - central Andes KW - stress field Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47361 ER - TY - THES A1 - Zali, Zahra T1 - Volcanic tremor analysis based on advanced signal processing concepts including music information retrieval (MIR) strategies N2 - Volcanoes are one of the Earth’s most dynamic zones and responsible for many changes in our planet. Volcano seismology aims to provide an understanding of the physical processes in volcanic systems and anticipate the style and timing of eruptions by analyzing the seismic records. Volcanic tremor signals are usually observed in the seismic records before or during volcanic eruptions. Their analysis contributes to evaluate the evolving volcanic activity and potentially predict eruptions. Years of continuous seismic monitoring now provide useful information for operational eruption forecasting. The continuously growing amount of seismic recordings, however, poses a challenge for analysis, information extraction, and interpretation, to support timely decision making during volcanic crises. Furthermore, the complexity of eruption processes and precursory activities makes the analysis challenging. A challenge in studying seismic signals of volcanic origin is the coexistence of transient signal swarms and long-lasting volcanic tremor signals. Separating transient events from volcanic tremors can, therefore, contribute to improving our understanding of the underlying physical processes. Some similar issues (data reduction, source separation, extraction, and classification) are addressed in the context of music information retrieval (MIR). The signal characteristics of acoustic and seismic recordings comprise a number of similarities. This thesis is going beyond classical signal analysis techniques usually employed in seismology by exploiting similarities of seismic and acoustic signals and building the information retrieval strategy on the expertise developed in the field of MIR. First, inspired by the idea of harmonic–percussive separation (HPS) in musical signal processing, I have developed a method to extract harmonic volcanic tremor signals and to detect transient events from seismic recordings. This provides a clean tremor signal suitable for tremor investigation along with a characteristic function suitable for earthquake detection. Second, using HPS algorithms, I have developed a noise reduction technique for seismic signals. This method is especially useful for denoising ocean bottom seismometers, which are highly contaminated by noise. The advantage of this method compared to other denoising techniques is that it doesn’t introduce distortion to the broadband earthquake waveforms, which makes it reliable for different applications in passive seismological analysis. Third, to address the challenge of extracting information from high-dimensional data and investigating the complex eruptive phases, I have developed an advanced machine learning model that results in a comprehensive signal processing scheme for volcanic tremors. Using this method seismic signatures of major eruptive phases can be automatically detected. This helps to provide a chronology of the volcanic system. Also, this model is capable to detect weak precursory volcanic tremors prior to the eruption, which could be used as an indicator of imminent eruptive activity. The extracted patterns of seismicity and their temporal variations finally provide an explanation for the transition mechanism between eruptive phases. N2 - Vulkane gehören zu den dynamischsten Zonen der Erde und sind für viele Veränderungen auf unserem Planeten verantwortlich. Die Vulkanseismologie zielt darauf ab, physikalischen Prozesse in Vulkansystemen besser zu verstehen und die Art und den Zeitpunkt von Eruptionen durch die Analyse der seismischen Aufzeichnungen vorherzusagen. Die Signale vulkanischer Tremore werden normalerweise vor oder während Vulkanausbrüchen beobachtet und müssen überwacht werden, um die vulkanische Aktivität zu bewerten. Die Untersuchung vulkanischer Tremore ist ein wichtiger Teil der Vulkanüberwachung, die darauf abzielt, Anzeichen für das Erwachen oder Wiedererwachen von Vulkanen zu erkennen und möglicherweise Ausbrüche vorherzusagen. Mehrere Dekaden kontinuierlicher seismischer Überwachung liefern nützliche Informationen für die operative Eruptionsvorhersage. Die ständig wachsende Menge an seismischen Aufzeichnungen stellt jedoch eine Herausforderung für die Analyse, Informationsextraktion und Interpretation für die zeitnahe Entscheidungsfindung während Vulkankrisen dar. Darüber hinaus erschweren die Komplexität der Eruptionsprozesse und Vorläuferaktivitäten die Analyse. Eine Herausforderung bei der Untersuchung seismischer Signale vulkanischen Ursprungs ist die Koexistenz von transienten Signalschwärmen und lang anhaltenden vulkanischen Tremoren. Die Trennung dieser beiden Signaltypen kann daher dazu beitragen, unser Verständnis der zugrunde liegenden physikalischen Prozesse zu verbessern. Einige ähnliche Probleme (Datenreduktion, Quellentrennung, Extraktion und Klassifizierung) werden im Zusammenhang mit Music Information Retrieval (MIR, dt. Etwa Musik-Informationsabruf) behandelt. Die Signaleigenschaften von akustischen und seismischen Aufzeichnungen weisen eine Reihe von Gemeinsamkeiten auf. Ich gehe über die klassischen Signalanalysetechniken hinaus, die normalerweise in der Seismologie verwendet werden, indem ich die Ähnlichkeiten von seismischen und akustischen Signalen und das Fachwissen aus dem Gebiet der MIR zur Informationsgewinnung nutze. Inspiriert von der Idee der harmonisch-perkussiven Trennung (HPS) in der musikalischen Signalverarbeitung habe ich eine Methode entwickelt, mit der harmonische vulkanische Erschütterungssignale extrahiert und transiente Ereignisse aus seismischen Aufzeichnungen erkannt werden können. Dies liefert ein sauberes Tremorsignal für die Tremoruntersuchung, sowie eine charakteristischen Funktion, die für die Erdbebenerkennung geeignet ist. Weiterhin habe ich unter Verwendung von HPS-Algorithmen eine Rauschunterdrückungstechnik für seismische Signale entwickelt. Diese kann zum Beispiel verwendet werden, um klarere Signale an Meeresbodenseismometern zu erhalten, die sonst durch zu starkes Rauschen überdeckt sind. Der Vorteil dieser Methode im Vergleich zu anderen Denoising-Techniken besteht darin, dass sie keine Verzerrung in der Breitbandantwort der Erdbebenwellen einführt, was sie für verschiedene Anwendungen in der passiven seismologischen Analyse zuverlässiger macht. Um Informationen aus hochdimensionalen Daten zu extrahieren und komplexe Eruptionsphasen zu untersuchen, habe ich ein fortschrittliches maschinelles Lernmodell entwickelt, aus dem ein umfassendes Signalverarbeitungsschema für vulkanische Erschütterungen abgeleitet werden kann. Mit dieser Methode können automatisch seismische Signaturen größerer Eruptionsphasen identifizieren werden. Dies ist nützlich, um die Chronologie eines Vulkansystems zu verstehen. Außerdem ist dieses Modell in der Lage, schwache vulkanische Vorläuferbeben zu erkennen, die als Indikator für bevorstehende Eruptionsaktivität verwendet werden könnten. Basierend auf den extrahierten Seismizitätsmustern und ihren zeitlichen Variationen liefere ich eine Erklärung für den Übergangsmechanismus zwischen verschiedenen Eruptionsphasen. KW - seismic signal processing KW - machine learning KW - volcano seismology KW - music information retrieval KW - noise reduction Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610866 ER - TY - THES A1 - Arbabi-Bidgoli, Sepehr T1 - Voids in the Large Scale Structure of the Universe Y1 - 2003 ER - TY - THES A1 - Landes, Nico T1 - Vitamin E : elucidation of the mechanism of side chain degradation and gene regulatory functions T1 - Vitamin E : Untersuchungen zum Mechanismus des Seitenkettenabbaus und genregulatorische Funktionen N2 - For more than 80 years vitamin E has been in the focus of scientific research. Most of the progress concerning non-antioxidant functions, nevertheless, has only arisen from publications during the last decade. Most recently, the metabolic pathway of vitamin E has been almost completely elucidated. Vitamin E is metabolized by truncation of its side chain. The initial step of an omega-hydroxylation is carried out by cytochromes P450 (CYPs). This was evidenced by the inhibition of the metabolism of alpha-tocopherol by ketoconozole, an inhibitor of CYP3A expression, whereas rifampicin, an inducer of CYP3A expression increased the metabolism of alpha-tocopherol. Although the degradation pathway is identical for all tocopherols and tocotrienols, there is a marked difference in the amount of the release of metabolites from the individual vitamin E forms in cell culture as well as in experimental animals and in humans. Recent findings not only proposed an CYP3A4-mediated degradation of vitamin E but also suggested an induction of the metabolizing enzymes by vitamin E itself. In order to investigate how vitamin E is able to influence the expression of metabolizing enzymes like CYP3A4, a pregnane X receptor (PXR)-based reporter gene assay was chosen. PXR is a nuclear receptor which regulates the transcription of genes, e.g., CYP3A4, by binding to specific DNA response elements. And indeed, as shown here, vitamin E is able to influence the expression of CYP3A via PXR in an in vitro reporter gene assay. Tocotrienols showed the highest activity followed by delta- and alpha-tocopherol. An up-regulation of Cyp3a11 mRNA, the murine homolog of the human CYP3A4, could also be confirmed in an animal experiment. The PXR-mediated change in gene expression displayed the first evidence of a direct transcriptional activity of vitamin E. PXR regulates the expression of genes involved in xenobiotic detoxification, including oxidation, conjugation, and transport. CYP3A, e.g., is involved in the oxidative metabolism of numerous currently used drugs. This opens a discussion of possible side effects of vitamin E, but the extent to which supranutritional doses of vitamin E modulate these pathways in humans has yet to be determined. Additionally, as there is arising evidence that vitamin E's essentiality is more likely to be based on gene regulation than on antioxidant functions, it appeared necessary to further investigate the ability of vitamin E to influence gene expression. Mice were divided in three groups with diets (i) deficient in alpha-tocopherol, (ii) adequate in alpha-tocopherol supply and (iii) with a supranutritional dosage of alpha-tocopherol. After three months, half of each group was supplemented via a gastric tube with a supranutritional dosage of gamma-tocotrienol per day for 7 days. Livers were analyzed for vitamin E content and liver RNA was prepared for hybridization using cDNA array and oligonucleotide array technology. A significant change in gene expression was observed by alpha-tocopherol but not by gamma-tocotrienol and only using the oligonucleotide array but not using the cDNA array. The latter effect is most probably due to the limited number of genes represented on a cDNA array, the lacking gamma-tocotrienol effect is obviously caused by a rapid degradation, which might prevent bioefficacy of gamma-tocotrienol. Alpha-tocopherol changed the expression of various genes. The most striking observation was an up-regulation of genes, which code for proteins involved in synaptic transmitter release and calcium signal transduction. Synapsin, synaptotagmin, synaptophysin, synaptobrevin, RAB3A, complexin 1, Snap25, ionotropic glutamate receptors (alpha 2 and zeta 1) were shown to be up-regulated in the supranutritional group compared to the deficient group. The up-regulation of synaptic genes shown in this work are not only supported by the strong concentration of genes which all are involved in the process of vesicular transport of neurotransmitters, but were also confirmed by a recent publication. However, a confirmation by real time PCR in neuronal tissue like brain is now required to explain the effect of vitamin E on neurological functionality. The change in expression of genes coding for synaptic proteins by vitamin E is of principal interest thus far, since the only human disease directly originating from an inadequate vitamin E status is ataxia with isolated vitamin E deficiency. Therefore, with the results of this work, an explanation for the observed neurological symptoms associated with vitamin E deficiency can be presented for the first time. N2 - Chemisch handelt es sich bei Vitamin E um acht lipophile Derivate des 6 Chromanols mit einer Seitenkette. Nach dem Sättigungsgrad der Seitenkette lassen sich die Derivate in die Tocopherole (gesättigte Seitenkette) und die Tocotrienole (ungesättigte Seitenkette mit drei Doppelbindungen) einteilen. Entsprechend der Methylierung des Chromanrings lassen sie sich in alpha-, beta-, gamma- und delta-Tocopherol, bzw. Tocotrienol unterscheiden. Davon besitzt alpha-Tocopherol, das gleichzeitig die im Plasma dominierende Form darstellt, die höchste biologische Aktivität. Aufnahme wie auch der Transport von Vitamin E im Körper sind vergleichsweise gut erforscht. Die Kenntnisse zu Metabolismus und Elimination waren jedoch bis vor kurzem sehr lückenhaft. Lange Zeit waren nur Vitamin E-Metabolite mit geöffnetem Chromanring, die sogenannten Simon-Metabolite Tocopheronsäure und Tocopheronolacton bekannt. Diese Metabolite können nur aus oxidativ gespaltenem Vitamin E entstehen und galten daher auch als Beweis für die antioxidative Wirkung von Vitamin E. Mit verbesserter Analytik wurde vor einigen Jahren gezeigt, dass die Simon-Metabolite größtenteils Isolierungsartefakte sind. Stattdessen wurden Metabolite mit intaktem Chromanring identifiziert. Tocopherole wie auch Tocotrienole werden im Körper durch eine Verkürzung der Seitenkette abgebaut. Die Endprodukte sind in jedem Fall CEHCs (Carboxyethyl Hydroxychromane). Die Seitenkettenverkürzung startet mit einer omega-Hydroxylierung gefolgt von 5 Schritten beta-Oxidation. Die omega Hydroxylierung der Seitenkette durch Cytochrom P450 (CYP) Enzyme wurde indirekt bestätigt. CYP3A4 gilt dabei als eines der wahrscheinlichsten Enzyme im Abbau von Vitamin E, die Beteiligung weiterer CYPs wird jedoch gleichfalls angenommen. Auffällig ist, dass nicht alle Vitamin E-Formen in gleichem Ausmaß abgebaut werden. Die Ausscheidung von CEHCs aus alpha-Tocopherol ist, verglichen zu andern Vitamin E-Formen, in kultivierten Zellen wie auch in vivo sehr gering. Die Art der Seitenkettenverkürzung von Vitamin E spricht für einen Abbau über das Fremdstoff-metabolisierende System, welches auch eine Vielzahl von Medikamenten verstoffwechselt. Im ersten Teil der vorliegenden Arbeit konnte mittels Reportergenassay in HepG2 Zellen gezeigt werden, dass Vitamin E einen nukleären Rezeptor, den Pregnan X Rezeptor (PXR), zu aktivieren und die Expression von PXR-regulierten Genen zu beeinflussen vermag. PXR reguliert eine Reihe von Genen für Fremdstoff-metabolisierende Enzyme wie z.B. Cytochrom P450 3A4 durch Bindung an sein responsives Element im Promotor der Zielgene. Die untersuchten Vitamin E-Formen unterschieden sich deutlich hinsichtlich ihrer PXR-Aktivierung. Die Tocotrienole zeigten die höchste PXR-Aktivierung - vergleichbar mit Rifampicin, einem bekannt guten PXR-Aktivator - gefolgt von delta , alpha- und gamma-Tocopherol. Im Tierversuch an Mäusen konnte die erhöhte Expression von Cyp3a11, dem Homolog des humanen CYP3A4 in Abhängigkeit von der alpha-Tocopherol-Zufuhr bestätigt werden. Somit konnte erstmals gezeigt werden, dass Vitamin E die Expression von Genen direkt beeinflussen kann. Darüber hinaus unterstreicht diese Beobachtung die Möglichkeit einer Wechselwirkung von pharmakologischen Dosen Vitamin E mit dem Abbau von Medikamenten. Eine genregulatorische Funktion von Vitamin E ist auf den ersten Blick überraschend. Denn wenngleich Vitamin E vor über 80 Jahren als Fertilitätsfaktor bei Ratten entdeckt wurde, steht die erst später beschriebene antioxidative Eigenschaft von Vitamin E bis heute im Fokus der meisten Publikationen. Die molekularen Mechanismen der Essentialität von Vitamin E wurden dagegen wenig untersucht. Erst in den letzten Jahren finden Funktionen von Vitamin E Interesse, die über seine antioxidative Wirkung hinausgehen. Dabei konnte gezeigt werden, dass Vitamin E in vitro die Expression von Genen wie dem Scavenger Rezeptor CD36, dem Connective Tissue Growth Factor oder dem Peroxisomen-Proliferator aktivierten Rezeptor gamma beeinflussen kann. Um weitere Zielgene von Vitamin E in vivo identifizieren zu können, wurden im zweiten Teil der vorliegenden Arbeit Mäuse in drei Fütterungsgruppen mit einer a) defizientem b) adäquatem sowie c) mit einer supranutritiven alpha Tocopherol-Versorgung über 3 Monate gefüttert. Zusätzlich erhielt die Hälfte der Tiere aus jeder Gruppe während der letzten Lebenswoche eine supranutritive Dosis gamma-Tocotrienol pro Tag. Aus den Lebern der Tiere wurde die RNA präpariert und die differentielle Genexpression mittels a) cDNA und b) Oligonukleotide enthaltenden GenChips analysiert. Eine signifikante Änderung in der Genexpression zwischen den verschiedenen Fütterungsgruppen fand sich jedoch nur in den Analysen der Oligonukleotid GenChips. Dies kann auf die begrenzte Anzahl von Genen zurückzuführen sein, die auf den cDNA GenChips repräsentiert waren. Auch ein signifikanter Effekt von gamma-Tocotrienol auf die Genexpression konnte nicht beobachtet werden. Wahrscheinlich ist die hohe Ausscheidung von gamma-CEHC, dem Abbauprodukt von gamma-Tocotrienol, die im Urin der Tiere gemessen wurde und die damit womöglich verringerte Bioverfügbarkeit von gamma-Tocotrienol dafür verantwortlich. Mit Hilfe der Oligonukleotid GenChips konnte jedoch ein signifikanter Effekt von alpha-Tocopherol auf die Expression einer Vielzahl von Genen beobachtet werden. Herausstechend war dabei die erhöhte Expression von für den vesikulären Transport essentiellen Genen, die für den synaptischen Signaltransfer benötigt werden. So wurden z.B. Synapsin, Synaptotagmin, Synaptophysin, Synaptobrevin, RAB3A, Complexin 1, Snap25, die ionotrophen Glutamat Rezeptoren alpha 2 und zeta 1 in Abhängigkeit von der alpha Tocopherol-Versorgung über die Diät erhöht exprimiert. Die Beobachtung, dass Vitamin E bei neurologischen Prozessen eine Rolle zu spielen scheint ist jedoch nicht neu. Bei Patienten mit einem Mangel an funktionellem alpha-Tocopherol-Transfer-Protein (alpha-TTP) kann es zu stark verringerten Plasmakonzentrationen an Vitamin E kommen, da alpha-TTP eine zentrale Rolle in der Aufnahme und Verteilung von Vitamin E im Körper einnimmt. An diesen Patienten können charakteristische Vitamin E-Mangelzustände beobachtet, die durch eine Reihe von neurologischen Störungen wie Ataxien, Hyporeflexie sowie eine verringerte propriozeptive und vibratorische Sensitivität gekennzeichnet sind. Mit den vorliegenden Ergebnissen kann nun erstmals eine mechanistische Erklärung für diese Symptome diskutiert werden. Eine Bestätigung der vorliegenden Ergebnisse via RT-PCR und Western Blot, z.B. in neuronalem Gewebe wie dem Gehirn, sowie anschließende funktionellen Untersuchungen ist daher dringend geboten. T2 - Vitamin E : elucidation of the mechanism of side chain degradation and gene regulatory functions KW - Vitamin E KW - Vitamin K KW - Vitamin E KW - Vitamin K KW - Tocopherol KW - Tocotrienol KW - Pregnane X Receptor KW - PXR KW - Differential Gene Expression KW - Gene Chip KW - Gene Array Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5222 ER - TY - THES A1 - Schmiedchen, Bettina T1 - Vitamin D and its linkage between chronic kidney disease and cardiovascular integrity Y1 - 2014 ER - TY - THES A1 - Zona, Carlotta Isabella T1 - Visuo-linguistic integration for thematic-role assignment across speakers T1 - Visuell-linguistische Integration für die Zuweisung thematischer Rollen über Sprecher hinweg N2 - This dissertation examines the integration of incongruent visual-scene and morphological-case information (“cues”) in building thematic-role representations of spoken relative clauses in German. Addressing the mutual influence of visual and linguistic processing, the Coordinated Interplay Account (CIA) describes a mechanism in two steps supporting visuo-linguistic integration (Knoeferle & Crocker, 2006, Cog Sci). However, the outcomes and dynamics of integrating incongruent thematic-role representations from distinct sources have been investigated scarcely. Further, there is evidence that both second-language (L2) and older speakers may rely on non-syntactic cues relatively more than first-language (L1)/young speakers. Yet, the role of visual information for thematic-role comprehension has not been measured in L2 speakers, and only limitedly across the adult lifespan. Thematically unambiguous canonically ordered (subject-extracted) and noncanonically ordered (object-extracted) spoken relative clauses in German (see 1a-b) were presented in isolation and alongside visual scenes conveying either the same (congruent) or the opposite (incongruent) thematic relations as the sentence did. 1 a Das ist der Koch, der die Braut verfolgt. This is the.NOM cook who.NOM the.ACC bride follows This is the cook who is following the bride. b Das ist der Koch, den die Braut verfolgt. This is the.NOM cook whom.ACC the.NOM bride follows This is the cook whom the bride is following. The relative contribution of each cue to thematic-role representations was assessed with agent identification. Accuracy and latency data were collected post-sentence from a sample of L1 and L2 speakers (Zona & Felser, 2023), and from a sample of L1 speakers from across the adult lifespan (Zona & Reifegerste, under review). In addition, the moment-by-moment dynamics of thematic-role assignment were investigated with mouse tracking in a young L1 sample (Zona, under review). The following questions were addressed: (1) How do visual scenes influence thematic-role representations of canonical and noncanonical sentences? (2) How does reliance on visual-scene, case, and word-order cues vary in L1 and L2 speakers? (3) How does reliance on visual-scene, case, and word-order cues change across the lifespan? The results showed reliable effects of incongruence of visually and linguistically conveyed thematic relations on thematic-role representations. Incongruent (vs. congruent) scenes yielded slower and less accurate responses to agent-identification probes presented post-sentence. The recently inspected agent was considered as the most likely agent ~300ms after trial onset, and the convergence of visual scenes and word order enabled comprehenders to assign thematic roles predictively. L2 (vs. L1) participants relied more on word order overall. In response to noncanonical clauses presented with incongruent visual scenes, sensitivity to case predicted the size of incongruence effects better than L1-L2 grouping. These results suggest that the individual’s ability to exploit specific cues might predict their weighting. Sensitivity to case was stable throughout the lifespan, while visual effects increased with increasing age and were modulated by individual interference-inhibition levels. Thus, age-related changes in comprehension may stem from stronger reliance on visually (vs. linguistically) conveyed meaning. These patterns represent evidence for a recent-role preference – i.e., a tendency to re-assign visually conveyed thematic roles to the same referents in temporally coordinated utterances. The findings (i) extend the generalizability of CIA predictions across stimuli, tasks, populations, and measures of interest, (ii) contribute to specifying the outcomes and mechanisms of detecting and indexing incongruent representations within the CIA, and (iii) speak to current efforts to understand the sources of variability in sentence comprehension. N2 - Diese Dissertation untersucht die Integration inkongruenter visueller Szenen- und morphologisch-kasusbezogener Informationen ("Hinweise") beim Aufbau thematischer Rollenrepräsentationen gesprochener Relativsätze auf Deutsch. Das Coordinated Interplay Account (CIA) beschreibt einen Mechanismus in zwei Schritten zur Unterstützung der visuell-linguistischen Integration, der die wechselseitige Beeinflussung visueller und sprachlicher Verarbeitung adressiert (Knoeferle & Crocker, 2006, Cog Sci). Die Ergebnisse und Dynamiken der Integration inkongruenter thematischer Rollenrepräsentationen aus verschiedenen Quellen wurden jedoch kaum untersucht. Außerdem gibt es Hinweise darauf, dass sich sowohl Zweitsprachler (L2) als auch ältere Sprecher möglicherweise relativ stärker auf nicht-syntaktische Hinweise verlassen als Erstsprachler (L1)/jüngere Sprecher. Dennoch wurde die Rolle visueller Informationen für das Verständnis thematischer Rollen bei L2-Sprechern nicht gemessen und nur begrenzt über die gesamte Lebensspanne hinweg. Thematisch eindeutige, kanonisch geordnete (subjektausgezogene) und nichtkanonisch geordnete (objektausgezogene) gesprochene Relativsätze auf Deutsch (siehe 1a-b) wurden isoliert und zusammen mit visuellen Szenen präsentiert, die entweder dieselben (kongruente) oder entgegengesetzte (inkongruente) thematische Beziehungen wie der Satz vermittelten. Die relative Beitrag jedes Hinweises zur thematischen Rollenrepräsentation wurde durch die Identifizierung des Agenten bewertet. Genauigkeits- und Latenzdaten wurden nach dem Satz von einer Stichprobe von L1- und L2-Sprechern (Zona & Felser, 2023) sowie von einer Stichprobe von L1-Sprechern über die Lebensspanne hinweg (Zona & Reifegerste, in Überprüfung) gesammelt. Darüber hinaus wurden die momentane Dynamik der Zuweisung thematischer Rollen mit Mausverfolgung in einer jungen L1-Stichprobe untersucht (Zona, in Überprüfung). Die folgenden Fragen wurden adressiert: (1) Wie beeinflussen visuelle Szenen thematische Rollenrepräsentationen kanonischer und nichtkanonischer Sätze? (2) Wie variiert der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise bei L1- und L2-Sprechern? (3) Wie verändert sich der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise im Laufe des Lebens? Die Ergebnisse zeigten zuverlässige Effekte der Inkongruenz visuell und sprachlich vermittelter thematischer Beziehungen auf thematische Rollenrepräsentationen. Inkongruente (vs. kongruente) Szenen führten zu langsameren und weniger genauen Reaktionen auf Agentenidentifikationsproben, die nach dem Satz präsentiert wurden. Der kürzlich inspizierte Agent wurde etwa 300 ms nach Beginn des Versuchs als der wahrscheinlichste Agent betrachtet, und die Übereinstimmung von visuellen Szenen und Wortstellung ermöglichte es den Verstehenden, thematische Rollen vorherzusagen. L2-Teilnehmer (vs. L1) verließen sich insgesamt stärker auf die Wortstellung. Auf nichtkanonische Klauseln, die mit inkongruenten visuellen Szenen präsentiert wurden, sagte die Sensibilität für den Kasus die Größe der Inkongruenzeffekte besser vorher als die Einteilung in L1-L2. Diese Ergebnisse legen nahe, dass die Fähigkeit des Einzelnen, bestimmte Hinweise auszunutzen, ihr Gewicht vorhersagen könnte. Die Sensibilität für den Kasus blieb über die Lebensspanne hinweg stabil, während sich visuelle Effekte mit zunehmendem Alter verstärkten und durch individuelle Interferenz-Hemmungslevel moduliert wurden. Somit können altersbedingte Veränderungen im Verständnis von einer stärkeren Abhängigkeit von visuell (vs. sprachlich) vermittelter Bedeutung herrühren. Diese Muster stellen einen Beleg für eine Präferenz für kürzlich eingeführte Rollen dar - d. h. eine Tendenz, visuell vermittelte thematische Rollen den gleichen Referenten in zeitlich koordinierten Äußerungen neu zuzuweisen. Die Ergebnisse (i) erweitern die Verallgemeinerbarkeit der Vorhersagen des CIAs über Stimuli, Aufgaben, Populationen und Interessenmaße hinweg, (ii) tragen zur Spezifizierung der Ergebnisse und Mechanismen bei der Erkennung und Indizierung inkongruenter Repräsentationen innerhalb des CIAs bei und (iii) sprechen aktuelle Bemühungen an, die Quellen der Variabilität im Satzverständnis zu verstehen. KW - spoken sentence comprehension KW - visuo-linguistic integration KW - thematic-role assignment KW - Sprachverständnis KW - Zuweisung thematischer Rollen KW - visuell-linguistische Integration Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-631857 ER - TY - THES A1 - Trümper, Jonas T1 - Visualization techniques for the analysis of software behavior and related structures T1 - Visualisierungstechniken für die Analyse von Softwareverhalten und verwandter Strukturen N2 - Software maintenance encompasses any changes made to a software system after its initial deployment and is thereby one of the key phases in the typical software-engineering lifecycle. In software maintenance, we primarily need to understand structural and behavioral aspects, which are difficult to obtain, e.g., by code reading. Software analysis is therefore a vital tool for maintaining these systems: It provides - the preferably automated - means to extract and evaluate information from their artifacts such as software structure, runtime behavior, and related processes. However, such analysis typically results in massive raw data, so that even experienced engineers face difficulties directly examining, assessing, and understanding these data. Among other things, they require tools with which to explore the data if no clear question can be formulated beforehand. For this, software analysis and visualization provide its users with powerful interactive means. These enable the automation of tasks and, particularly, the acquisition of valuable and actionable insights into the raw data. For instance, one means for exploring runtime behavior is trace visualization. This thesis aims at extending and improving the tool set for visual software analysis by concentrating on several open challenges in the fields of dynamic and static analysis of software systems. This work develops a series of concepts and tools for the exploratory visualization of the respective data to support users in finding and retrieving information on the system artifacts concerned. This is a difficult task, due to the lack of appropriate visualization metaphors; in particular, the visualization of complex runtime behavior poses various questions and challenges of both a technical and conceptual nature. This work focuses on a set of visualization techniques for visually representing control-flow related aspects of software traces from shared-memory software systems: A trace-visualization concept based on icicle plots aids in understanding both single-threaded as well as multi-threaded runtime behavior on the function level. The concept’s extensibility further allows the visualization and analysis of specific aspects of multi-threading such as synchronization, the correlation of such traces with data from static software analysis, and a comparison between traces. Moreover, complementary techniques for simultaneously analyzing system structures and the evolution of related attributes are proposed. These aim at facilitating long-term planning of software architecture and supporting management decisions in software projects by extensions to the circular-bundle-view technique: An extension to 3-dimensional space allows for the use of additional variables simultaneously; interaction techniques allow for the modification of structures in a visual manner. The concepts and techniques presented here are generic and, as such, can be applied beyond software analysis for the visualization of similarly structured data. The techniques' practicability is demonstrated by several qualitative studies using subject data from industry-scale software systems. The studies provide initial evidence that the techniques' application yields useful insights into the subject data and its interrelationships in several scenarios. N2 - Die Softwarewartung umfasst alle Änderungen an einem Softwaresystem nach dessen initialer Bereitstellung und stellt damit eine der wesentlichen Phasen im typischen Softwarelebenszyklus dar. In der Softwarewartung müssen wir insbesondere strukturelle und verhaltensbezogene Aspekte verstehen, welche z.B. alleine durch Lesen von Quelltext schwer herzuleiten sind. Die Softwareanalyse ist daher ein unverzichtbares Werkzeug zur Wartung solcher Systeme: Sie bietet - vorzugsweise automatisierte - Mittel, um Informationen über deren Artefakte, wie Softwarestruktur, Laufzeitverhalten und verwandte Prozesse, zu extrahieren und zu evaluieren. Eine solche Analyse resultiert jedoch typischerweise in großen und größten Rohdaten, die selbst erfahrene Softwareingenieure direkt nur schwer untersuchen, bewerten und verstehen können. Unter Anderem dann, wenn vorab keine klare Frage formulierbar ist, benötigen sie Werkzeuge, um diese Daten zu erforschen. Hierfür bietet die Softwareanalyse und Visualisierung ihren Nutzern leistungsstarke, interaktive Mittel. Diese ermöglichen es Aufgaben zu automatisieren und insbesondere wertvolle und belastbare Einsichten aus den Rohdaten zu erlangen. Beispielsweise ist die Visualisierung von Software-Traces ein Mittel, um das Laufzeitverhalten eines Systems zu ergründen. Diese Arbeit zielt darauf ab, den "Werkzeugkasten" der visuellen Softwareanalyse zu erweitern und zu verbessern, indem sie sich auf bestimmte, offene Herausforderungen in den Bereichen der dynamischen und statischen Analyse von Softwaresystemen konzentriert. Die Arbeit entwickelt eine Reihe von Konzepten und Werkzeugen für die explorative Visualisierung der entsprechenden Daten, um Nutzer darin zu unterstützen, Informationen über betroffene Systemartefakte zu lokalisieren und zu verstehen. Da es insbesondere an geeigneten Visualisierungsmetaphern mangelt, ist dies eine schwierige Aufgabe. Es bestehen, insbesondere bei komplexen Softwaresystemen, verschiedenste offene technische sowie konzeptionelle Fragestellungen und Herausforderungen. Diese Arbeit konzentriert sich auf Techniken zur visuellen Darstellung kontrollflussbezogener Aspekte aus Software-Traces von Shared-Memory Softwaresystemen: Ein Trace-Visualisierungskonzept, basierend auf Icicle Plots, unterstützt das Verstehen von single- und multi-threaded Laufzeitverhalten auf Funktionsebene. Die Erweiterbarkeit des Konzepts ermöglicht es zudem spezifische Aspekte des Multi-Threading, wie Synchronisation, zu visualisieren und zu analysieren, derartige Traces mit Daten aus der statischen Softwareanalyse zu korrelieren sowie Traces mit einander zu vergleichen. Darüber hinaus werden komplementäre Techniken für die kombinierte Analyse von Systemstrukturen und der Evolution zugehöriger Eigenschaften vorgestellt. Diese zielen darauf ab, die Langzeitplanung von Softwarearchitekturen und Management-Entscheidungen in Softwareprojekten mittels Erweiterungen an der Circular-Bundle-View-Technik zu unterstützen: Eine Erweiterung auf den 3-dimensionalen Raum ermöglicht es zusätzliche visuelle Variablen zu nutzen; Strukturen können mithilfe von Interaktionstechniken visuell bearbeitet werden. Die gezeigten Techniken und Konzepte sind allgemein verwendbar und lassen sich daher auch jenseits der Softwareanalyse einsetzen, um ähnlich strukturierte Daten zu visualisieren. Mehrere qualitative Studien an Softwaresystemen in industriellem Maßstab stellen die Praktikabilität der Techniken dar. Die Ergebnisse sind erste Belege dafür, dass die Anwendung der Techniken in verschiedenen Szenarien nützliche Einsichten in die untersuchten Daten und deren Zusammenhänge liefert. KW - Visualisierung KW - Softwarewartung KW - Softwareanalyse KW - Softwarevisualisierung KW - Laufzeitverhalten KW - visualization KW - software maintenance KW - software analysis KW - software visualization KW - runtime behavior Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72145 ER - TY - THES A1 - Bohnet, Johannes T1 - Visualization of Execution Traces and its Application to Software Maintenance Y1 - 2010 CY - Potsdam ER - TY - THES A1 - Gandhi, Nilima T1 - Visionary leadership and job satisfaction T1 - Visionäre Führung und Arbeitszufriedenheit BT - an empirical investigation BT - eine empirische Untersuchung N2 - Current business organizations want to be more efficient and constantly evolving to find ways to retain talent. It is well established that visionary leadership plays a vital role in organizational success and contributes to a better working environment. This study aims to determine the effect of visionary leadership on employees' perceived job satisfaction. Specifically, it investigates whether the mediators meaningfulness at work and commitment to the leader impact the relationship. I take support from job demand resource theory to explain the overarching model used in this study and broaden-and-build theory to leverage the use of mediators. To test the hypotheses, evidence was collected in a multi-source, time-lagged design field study of 95 leader-follower dyads. The data was collected in a three-wave study, each survey appearing after one month. Data on employee perception of visionary leadership was collected in T1, data for both mediators were collected in T2, and employee perception of job satisfaction was collected in T3. The findings display that meaningfulness at work and commitment to the leader play positive intervening roles (in the form of a chain) in the indirect influence of visionary leadership on employee perceptions regarding job satisfaction. This research offers contributions to literature and theory by first broadening the existing knowledge on the effects of visionary leadership on employees. Second, it contributes to the literature on constructs meaningfulness at work, commitment to the leader, and job satisfaction. Third, it sheds light on the mediation mechanism dealing with study variables in line with the proposed model. Fourth, it integrates two theories, job demand resource theory and broaden-and-build theory providing further evidence. Additionally, the study provides practical implications for business leaders and HR practitioners. Overall, my study discusses the potential of visionary leadership behavior to elevate employee outcomes. The study aligns with previous research and answers several calls for further research on visionary leadership, job satisfaction, and mediation mechanism with meaningfulness at work and commitment to the leader. N2 - Heutige Unternehmen wollen effizienter sein und sich ständig weiterentwickeln, um Talente zu binden. Es ist bekannt, dass visionäre Führung eine wichtige Rolle für den Erfolg eines Unternehmens spielt und zu einem besseren Arbeitsumfeld beiträgt. Ziel dieser Studie ist es, die Auswirkungen visionärer Führung auf die wahrgenommene Arbeitszufriedenheit der Mitarbeiter zu ermitteln. Insbesondere wird untersucht, ob die Mediatoren Sinnhaftigkeit der Arbeit und Bindung an die Führungskraft einen Einfluss auf diese Beziehung haben. Ich stütze mich auf die Job Demand Resource theory, um das in dieser Studie verwendete übergreifende Modell zu erklären, und auf die Broaden-and-Build theory, um die Verwendung von Mediatoren zu nutzen. Um die Hypothesen zu testen, wurden in einer Feldstudie mit mehreren Quellen und zeitlich versetztem Design Daten von 95 aus Führungskraft und Geführten bestehenden Dyaden gesammelt. In einer Drei-Wellen-Studie wurden die Daten zur Wahrnehmung visionärer Führung durch die Mitarbeiter in T1, Daten zu den beiden Mediatoren in T2 und schließlich die Wahrnehmung der Arbeitszufriedenheit durch die Mitarbeiter in T3 erhoben. Die Ergebnisse zeigen, dass Sinnhaftigkeit bei der Arbeit und Bindung an die Führungskraft positive intervenierende Rollen (in Form einer Kette) beim indirekten Einfluss von visionärer Führung auf die Wahrnehmung der Arbeitszufriedenheit der Mitarbeiter spielen. Diese Studie leistet einen Beitrag zur Literatur und Theorie, indem sie erstens das vorhandene Wissen über die Auswirkungen visionärer Führung auf die Mitarbeiter erweitert. Zweitens trägt sie zur Literatur über die Konstrukte Sinnhaftigkeit bei der Arbeit, Bindung an die Führungskraft und Arbeitszufriedenheit bei. Drittens beleuchtet sie den Mediationsmechanismus, der mit den Untersuchungsvariablen im Einklang mit dem vorgeschlagenen Modell steht. Viertens integriert sie zwei Theorien, die Job Demand Resource theory und die Broaden-and-Build theory, und liefert damit weitere Belege. Darüber hinaus liefert die Studie praktische Implikationen für Unternehmensleiter und HR-Praktiker. Insgesamt erörtert meine Studie das Potenzial von visionärem Führungsverhalten zur Verbesserung der Mitarbeiterergebnisse. Die Studie steht im Einklang mit früheren Forschungsarbeiten und beantwortet mehrere Forderungen nach weiterer Forschung zu visionärer Führung, Arbeitszufriedenheit und Vermittlungsmechanismen mit Sinnhaftigkeit bei der Arbeit und Bindung an die Führungskraft. KW - visionary leadership KW - meaningfulness at work KW - commitment to the leader KW - job satisfaction KW - visionäre Führung KW - Engagement für die Führungskraft KW - Arbeitszufriedenheit KW - Sinnhaftigkeit der Arbeit Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-572691 ER - TY - THES A1 - Marwecki, Sebastian T1 - Virtualizing physical space T1 - Virtualisierung von Physischem Raum N2 - The true cost for virtual reality is not the hardware, but the physical space it requires, as a one-to-one mapping of physical space to virtual space allows for the most immersive way of navigating in virtual reality. Such “real-walking” requires physical space to be of the same size and the same shape of the virtual world represented. This generally prevents real-walking applications from running on any space that they were not designed for. To reduce virtual reality’s demand for physical space, creators of such applications let users navigate virtual space by means of a treadmill, altered mappings of physical to virtual space, hand-held controllers, or gesture-based techniques. While all of these solutions succeed at reducing virtual reality’s demand for physical space, none of them reach the same level of immersion that real-walking provides. Our approach is to virtualize physical space: instead of accessing physical space directly, we allow applications to express their need for space in an abstract way, which our software systems then map to the physical space available. We allow real-walking applications to run in spaces of different size, different shape, and in spaces containing different physical objects. We also allow users immersed in different virtual environments to share the same space. Our systems achieve this by using a tracking volume-independent representation of real-walking experiences — a graph structure that expresses the spatial and logical relationships between virtual locations, virtual elements contained within those locations, and user interactions with those elements. When run in a specific physical space, this graph representation is used to define a custom mapping of the elements of the virtual reality application and the physical space by parsing the graph using a constraint solver. To re-use space, our system splits virtual scenes and overlap virtual geometry. The system derives this split by means of hierarchically clustering of our virtual objects as nodes of our bi-partite directed graph that represents the logical ordering of events of the experience. We let applications express their demands for physical space and use pre-emptive scheduling between applications to have them share space. We present several application examples enabled by our system. They all enable real-walking, despite being mapped to physical spaces of different size and shape, containing different physical objects or other users. We see substantial real-world impact in our systems. Today’s commercial virtual reality applications are generally designing to be navigated using less immersive solutions, as this allows them to be operated on any tracking volume. While this is a commercial necessity for the developers, it misses out on the higher immersion offered by real-walking. We let developers overcome this hurdle by allowing experiences to bring real-walking to any tracking volume, thus potentially bringing real-walking to consumers. Die eigentlichen Kosten für Virtual Reality Anwendungen entstehen nicht primär durch die erforderliche Hardware, sondern durch die Nutzung von physischem Raum, da die eins-zu-eins Abbildung von physischem auf virtuellem Raum die immersivste Art von Navigation ermöglicht. Dieses als „Real-Walking“ bezeichnete Erlebnis erfordert hinsichtlich Größe und Form eine Entsprechung von physischem Raum und virtueller Welt. Resultierend daraus können Real-Walking-Anwendungen nicht an Orten angewandt werden, für die sie nicht entwickelt wurden. Um den Bedarf an physischem Raum zu reduzieren, lassen Entwickler von Virtual Reality-Anwendungen ihre Nutzer auf verschiedene Arten navigieren, etwa mit Hilfe eines Laufbandes, verfälschten Abbildungen von physischem zu virtuellem Raum, Handheld-Controllern oder gestenbasierten Techniken. All diese Lösungen reduzieren zwar den Bedarf an physischem Raum, erreichen jedoch nicht denselben Grad an Immersion, den Real-Walking bietet. Unser Ansatz zielt darauf, physischen Raum zu virtualisieren: Anstatt auf den physischen Raum direkt zuzugreifen, lassen wir Anwendungen ihren Raumbedarf auf abstrakte Weise formulieren, den unsere Softwaresysteme anschließend auf den verfügbaren physischen Raum abbilden. Dadurch ermöglichen wir Real-Walking-Anwendungen Räume mit unterschiedlichen Größen und Formen und Räume, die unterschiedliche physische Objekte enthalten, zu nutzen. Wir ermöglichen auch die zeitgleiche Nutzung desselben Raums durch mehrere Nutzer verschiedener Real-Walking-Anwendungen. Unsere Systeme erreichen dieses Resultat durch eine Repräsentation von Real-Walking-Erfahrungen, die unabhängig sind vom gegebenen Trackingvolumen – eine Graphenstruktur, die die räumlichen und logischen Beziehungen zwischen virtuellen Orten, den virtuellen Elementen innerhalb dieser Orte, und Benutzerinteraktionen mit diesen Elementen, ausdrückt. Bei der Instanziierung der Anwendung in einem bestimmten physischen Raum wird diese Graphenstruktur und ein Constraint Solver verwendet, um eine individuelle Abbildung der virtuellen Elemente auf den physischen Raum zu erreichen. Zur mehrmaligen Verwendung des Raumes teilt unser System virtuelle Szenen und überlagert virtuelle Geometrie. Das System leitet diese Aufteilung anhand eines hierarchischen Clusterings unserer virtuellen Objekte ab, die als Knoten unseres bi-partiten, gerichteten Graphen die logische Reihenfolge aller Ereignisse repräsentieren. Wir verwenden präemptives Scheduling zwischen den Anwendungen für die zeitgleiche Nutzung von physischem Raum. Wir stellen mehrere Anwendungsbeispiele vor, die Real-Walking ermöglichen – in physischen Räumen mit unterschiedlicher Größe und Form, die verschiedene physische Objekte oder weitere Nutzer enthalten. Wir sehen in unseren Systemen substantielles Potential. Heutige Virtual Reality-Anwendungen sind bisher zwar so konzipiert, dass sie auf einem beliebigen Trackingvolumen betrieben werden können, aber aus kommerzieller Notwendigkeit kein Real-Walking beinhalten. Damit entgeht Entwicklern die Gelegenheit eine höhere Immersion herzustellen. Indem wir es ermöglichen, Real-Walking auf jedes Trackingvolumen zu bringen, geben wir Entwicklern die Möglichkeit Real-Walking zu ihren Nutzern zu bringen. N2 - Die eigentlichen Kosten für Virtual Reality Anwendungen entstehen nicht primär durch die erforderliche Hardware, sondern durch die Nutzung von physischem Raum, da die eins-zu-eins Abbildung von physischem auf virtuellem Raum die immersivste Art von Navigation ermöglicht. Dieses als „Real-Walking“ bezeichnete Erlebnis erfordert hinsichtlich Größe und Form eine Entsprechung von physischem Raum und virtueller Welt. Resultierend daraus können Real-Walking-Anwendungen nicht an Orten angewandt werden, für die sie nicht entwickelt wurden. Um den Bedarf an physischem Raum zu reduzieren, lassen Entwickler von Virtual Reality-Anwendungen ihre Nutzer auf verschiedene Arten navigieren, etwa mit Hilfe eines Laufbandes, verfälschten Abbildungen von physischem zu virtuellem Raum, Handheld-Controllern oder gestenbasierten Techniken. All diese Lösungen reduzieren zwar den Bedarf an physischem Raum, erreichen jedoch nicht denselben Grad an Immersion, den Real-Walking bietet. Unser Ansatz zielt darauf, physischen Raum zu virtualisieren: Anstatt auf den physischen Raum direkt zuzugreifen, lassen wir Anwendungen ihren Raumbedarf auf abstrakte Weise formulieren, den unsere Softwaresysteme anschließend auf den verfügbaren physischen Raum abbilden. Dadurch ermöglichen wir Real-Walking-Anwendungen Räume mit unterschiedlichen Größen und Formen und Räume, die unterschiedliche physische Objekte enthalten, zu nutzen. Wir ermöglichen auch die zeitgleiche Nutzung desselben Raums durch mehrere Nutzer verschiedener Real-Walking-Anwendungen. Unsere Systeme erreichen dieses Resultat durch eine Repräsentation von Real-Walking-Erfahrungen, die unabhängig sind vom gegebenen Trackingvolumen – eine Graphenstruktur, die die räumlichen und logischen Beziehungen zwischen virtuellen Orten, den virtuellen Elementen innerhalb dieser Orte, und Benutzerinteraktionen mit diesen Elementen, ausdrückt. Bei der Instanziierung der Anwendung in einem bestimmten physischen Raum wird diese Graphenstruktur und ein Constraint Solver verwendet, um eine individuelle Abbildung der virtuellen Elemente auf den physischen Raum zu erreichen. Zur mehrmaligen Verwendung des Raumes teilt unser System virtuelle Szenen und überlagert virtuelle Geometrie. Das System leitet diese Aufteilung anhand eines hierarchischen Clusterings unserer virtuellen Objekte ab, die als Knoten unseres bi-partiten, gerichteten Graphen die logische Reihenfolge aller Ereignisse repräsentieren. Wir verwenden präemptives Scheduling zwischen den Anwendungen für die zeitgleiche Nutzung von physischem Raum. Wir stellen mehrere Anwendungsbeispiele vor, die Real-Walking ermöglichen – in physischen Räumen mit unterschiedlicher Größe und Form, die verschiedene physische Objekte oder weitere Nutzer enthalten. Wir sehen in unseren Systemen substantielles Potential. Heutige Virtual Reality-Anwendungen sind bisher zwar so konzipiert, dass sie auf einem beliebigen Trackingvolumen betrieben werden können, aber aus kommerzieller Notwendigkeit kein Real-Walking beinhalten. Damit entgeht Entwicklern die Gelegenheit eine höhere Immersion herzustellen. Indem wir es ermöglichen, Real-Walking auf jedes Trackingvolumen zu bringen, geben wir Entwicklern die Möglichkeit Real-Walking zu ihren Nutzern zu bringen. KW - Human Computer Interaction KW - Mixed Reality KW - Walking KW - Real Walking KW - Motion Mapping KW - Storytelling KW - Mensch Computer Interaktion KW - Mixed Reality KW - Walking KW - Real Walking KW - Motion Mapping KW - Storytelling Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-520332 ER - TY - THES A1 - Shigeyama, Jotaro T1 - Virtual reality at 1:1 scale in small physical spaces N2 - Virtual Reality (VR) leads to the highest level of immersion if presented using a 1:1 mapping of virtual space to physical space—also known as real walking. The advent of inexpensive consumer virtual reality (VR) headsets, all capable of running inside-out position tracking, has brought VR to the home. However, many VR applications do not feature full real walking, but instead, feature a less immersive space-saving technique known as instant teleportation. Given that only 0.3% of home users run their VR experiences in spaces more than 4m2, the most likely explanation is the lack of the physical space required for meaningful use of real walking. In this thesis, we investigate how to overcome this hurdle. We demonstrate how to run 1:1-mapped VR experiences in small physical spaces and we explore the trade-off between space and immersion. (1) We start with a space limit of 15cm. We present DualPanto, a device that allows (blind) VR users to experience the virtual world from a 1:1 mapped bird’s eye perspective—by leveraging haptics. (2) We then relax our space constraints to 50cm, which is what seated users (e.g., on an airplane or train ride) have at their disposal. We leverage the space to represent a standing user in 1:1 mapping, while only compressing the user’s arm movement. We demonstrate our 4 prototype VirtualArms at the example of VR experiences limited to arm movement, such as boxing. (3) Finally, we relax our space constraints further to 3m2 of walkable space, which is what 75% of home users have access to. As well- established in the literature, we implement real walking with the help of portals, also known as “impossible spaces”. While impossible spaces on such dramatic space constraints tend to degenerate into incomprehensible mazes (as demonstrated, for example, by “TraVRsal”), we propose plausibleSpaces: presenting meaningful virtual worlds by adapting various visual elements to impossible spaces. Our techniques push the boundary of spatially meaningful VR interaction in various small spaces. We see further future challenges for new design approaches to immersive VR experiences for the smallest physical spaces in our daily life. N2 - Virtuelle Realität (VR) erzeugt die größte Immersion, wenn sie mit einer 1:1-Abbildung des virtuellen Raums auf den physischen Raum verwendet wird – dem sogenannten Real Walking. Das Aufkommen preiswerter VR-Headsets, die alle zu Inside-Out Positionstracking fähig sind, hat VR in die Haushalte von Heimanwendern gebracht. Viele VR-Anwendungen ermöglichen jedoch kein Real Walking, sondern bieten stattdessen eine weniger immersive, raumsparende Technik an, die als Instant Teleportation bekannt ist. In Anbetracht der Tatsache, dass nur 0,3% der Nutzer ihre VR-Anwendungen in Räumen von mehr als 4m² verwenden, ist die wahrscheinlichste Erklärung dafür der Mangel an physischem Raum, der für eine sinnvolle Nutzung des Real Walking erforderlich wäre. In dieser Arbeit untersuchen wir, wie diese Hürde überwunden werden kann. Wir zeigen, wie man 1:1 skalierte VR-Interaktionen in kleinen Räumen durchführen kann, und wir erforschen den Kompromiss zwischen der verfügbaren Menge an Raum und der Immersion. (1) Wir beginnen mit einer Raumbegrenzung von 15cm. Wir stellen DualPanto vor, ein Gerät, welches (blinden) VR-Benutzern ermöglicht, die virtuelle Welt aus einer 1:1 skalierten Vogelperspektive zu erleben indem es Haptik verwendet. (2) Dann lockern wir unsere räumliche Beschränkung auf 50 cm, ein Raum der sitzenden Benutzern (z.B. in einem Flugzeug oder Zug) zur Verfügung steht. Wir nutzen diesen Raum, um einen stehenden Benutzer in einer 1:1-Abbildung darzustellen, während wir nur die Armbewegung des Benutzers erfassen. Wir demonstrieren unseren Prototyp VirtualArms am Beispiel von VR-Erfahrungen, die auf Armbewegungen beschränkt sind, wie z.B. einem Boxkampf. (3) Schließlich lockern wir unsere räumlichen Beschränkungen weiter auf 3m² begehbare Fläche, welche 75% der Heimanwender zur Verfügung steht. Wie bereits in der Literatur etabliert, implementieren wir Real Walking mit Hilfe von Portalen, auch bekannt als Impossible Spaces. Während Impossible Spaces bei solch dramatisch begrenzten Platzverhältnissen dazu neigen, zu unverständlichen Labyrinthen zu werden (wie z.B. bei TraVRsal), schlagen wir plausibleSpaces vor: die Präsentation räumlich bedeutsamer virtueller Welten durch die Anpassung verschiedener visueller Elemente an Impossible Spaces. Unsere Techniken verschieben die Grenzen der räumlich bedeutsamen VR-Interaktion in verschiedenen kleinen Räumen. Als zukünftige Herausforderung sehen wir die Entwicklung neuer Designansätze für immersive VR-Erfahrungen für die kleinsten physischen Räume in unserem Alltag. T2 - Virtuelle Realität im Maßstab 1:1 in kleinem physischen Raum KW - virtual reality KW - haptics KW - human-computer interaction KW - Haptik KW - Mensch-Computer-Interaktion KW - Virtuelle Realität Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-649000 ER - TY - THES A1 - Berg, Gregor T1 - Virtual prototypes for the model-based elicitation and validation of collaborative scenarios T1 - Virtuelle Prototypen für die Modellbasierte Erhebung und Validierung kollaborativer Szenarien N2 - Requirements engineers have to elicit, document, and validate how stakeholders act and interact to achieve their common goals in collaborative scenarios. Only after gathering all information concerning who interacts with whom to do what and why, can a software system be designed and realized which supports the stakeholders to do their work. To capture and structure requirements of different (groups of) stakeholders, scenario-based approaches have been widely used and investigated. Still, the elicitation and validation of requirements covering collaborative scenarios remains complicated, since the required information is highly intertwined, fragmented, and distributed over several stakeholders. Hence, it can only be elicited and validated collaboratively. In times of globally distributed companies, scheduling and conducting workshops with groups of stakeholders is usually not feasible due to budget and time constraints. Talking to individual stakeholders, on the other hand, is feasible but leads to fragmented and incomplete stakeholder scenarios. Going back and forth between different individual stakeholders to resolve this fragmentation and explore uncovered alternatives is an error-prone, time-consuming, and expensive task for the requirements engineers. While formal modeling methods can be employed to automatically check and ensure consistency of stakeholder scenarios, such methods introduce additional overhead since their formal notations have to be explained in each interaction between stakeholders and requirements engineers. Tangible prototypes as they are used in other disciplines such as design, on the other hand, allow designers to feasibly validate and iterate concepts and requirements with stakeholders. This thesis proposes a model-based approach for prototyping formal behavioral specifications of stakeholders who are involved in collaborative scenarios. By simulating and animating such specifications in a remote domain-specific visualization, stakeholders can experience and validate the scenarios captured so far, i.e., how other stakeholders act and react. This interactive scenario simulation is referred to as a model-based virtual prototype. Moreover, through observing how stakeholders interact with a virtual prototype of their collaborative scenarios, formal behavioral specifications can be automatically derived which complete the otherwise fragmented scenarios. This, in turn, enables requirements engineers to elicit and validate collaborative scenarios in individual stakeholder sessions – decoupled, since stakeholders can participate remotely and are not forced to be available for a joint session at the same time. This thesis discusses and evaluates the feasibility, understandability, and modifiability of model-based virtual prototypes. Similarly to how physical prototypes are perceived, the presented approach brings behavioral models closer to being tangible for stakeholders and, moreover, combines the advantages of joint stakeholder sessions and decoupled sessions. N2 - Anforderungsingenieure erheben, dokumentieren und validieren wie Bedarfsträger in einzelnen und gemeinsamen Aktivitäten die Ziele ihrer kollaborativen Szenarios erreichen. Auf Grundlage von Angaben darüber, wer warum mit wem zusammen was erledigt, kann anschließend ein Softwaresystem spezifiziert und umgesetzt werden, welches die Bedarfsträger bei der Durchführung ihrer Abläufe unterstützt. Um Anforderungen verschiedener (Gruppen von) Bedarfsträger zu erfassen und zu strukturieren, werden szenariobasierte Ansätze genutzt und erforscht. Die Erhebung und Validierung von Anforderungen, die kollaborative Szenarios abdecken, ist dennoch kompliziert, da derartige Informationen hochgradig verknüpft, fragmentiert und über mehrere Bedarfsträger verteilt sind, wodurch sie nur in Gruppensitzungen effizient erhoben und validiert werden können. In Zeiten global verteilter Firmen ist die Planung und Durchführung solcher Workshops mit Gruppen von Bedarfsträgern nur selten praktikabel. Mit einzelnen Bedarfsträgern zu sprechen ist hingegen oft realisierbar, führt aber zu fragmentierten, unvollständigen Szenariobeschreibungen. Durch eine Vielzahl von Einzelgesprächen mit wechselnden Bedarfsträgern kann diese Fragmentierung aufgelöst werden – dies ist aber eine fehleranfällige und zeitaufwändige Aufgabe. Zwar bieten formale Modellierungsmethoden z.B. automatische Konsistenzchecks für Szenarios, doch führen derartige Methoden zu Mehraufwand in allen Gesprächen mit Bedarfsträgern, da diesen die verwendeten formalen Notationen jedes Mal erläutert werden müssen. Handfeste Prototypen, wie sie in anderen Disziplinen eingesetzt werden, ermöglichen es Designern, ihre Konzepte und erhobenen Anforderungen ohne viel Aufwand mit Bedarfsträgern zu validieren und zu iterieren. In dieser Dissertation wird ein modellbasierter Generierungsansatz vorgeschlagen, der kollaborative Szenarios prototypisch auf Grundlage von formalen Verhaltensmodellen für die beteiligten Bedarfsträger darstellt. Durch die Simulation dieses Verhaltens und dessen Animation innerhalb einer webbasierten, domänenspezifischen Visualisierung, können Bedarfsträger diese Modelle erleben und die bisher erfassten Szenarios validieren. Eine derartige interaktive Szenariosimulation wird als modellbasierter virtueller Prototyp bezeichnet. Basierend auf den Interaktionen zwischen Bedarfsträgern und einem virtuellen Prototypen ihrer Szenarios können zudem formale Verhaltensspezifikationen automatisch abgeleitet werden, die wiederum die fragmentierten kollaborativen Szenarios vervollständigen. Dies ermöglicht es den Anforderungsingenieuren, die kollaborativen Szenarios in individuellen Sitzungen mit einzelnen Bedarfsträgern zu erheben und zu validieren – entkoppelt voneinander, da Bedarfsträger webbasiert teilnehmen können und dabei nicht darauf angewiesen sind, dass andere Bedarfsträger ebenfalls in der gleichen Sitzung teilnehmen. Diese Dissertation diskutiert und evaluiert die Machbarkeit, Verständlichkeit sowie die Änderbarkeit der modellbasierten virtuellen Prototypen. Auf die gleiche Art wie physikalische Prototypen wahrgenommen werden, erlaubt es der vorgestellte Ansatz, Verhaltensmodelle für Bedarfsträger erlebbar zu machen und so die Vorteile von Gruppensitzungen mit denen entkoppelter Sitzungen zu verbinden. KW - requirements engineering KW - behavioral specification KW - interactive simulation KW - model-based prototyping KW - rapid prototyping Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69729 ER - TY - THES A1 - Elsaid, Mohamed Esameldin Mohamed T1 - Virtual machines live migration cost modeling and prediction T1 - Modellierung und Vorhersage der Live-Migrationskosten für Virtuelle Maschinen N2 - Dynamic resource management is an essential requirement for private and public cloud computing environments. With dynamic resource management, the physical resources assignment to the cloud virtual resources depends on the actual need of the applications or the running services, which enhances the cloud physical resources utilization and reduces the offered services cost. In addition, the virtual resources can be moved across different physical resources in the cloud environment without an obvious impact on the running applications or services production. This means that the availability of the running services and applications in the cloud is independent on the hardware resources including the servers, switches and storage failures. This increases the reliability of using cloud services compared to the classical data-centers environments. In this thesis we briefly discuss the dynamic resource management topic and then deeply focus on live migration as the definition of the compute resource dynamic management. Live migration is a commonly used and an essential feature in cloud and virtual data-centers environments. Cloud computing load balance, power saving and fault tolerance features are all dependent on live migration to optimize the virtual and physical resources usage. As we will discuss in this thesis, live migration shows many benefits to cloud and virtual data-centers environments, however the cost of live migration can not be ignored. Live migration cost includes the migration time, downtime, network overhead, power consumption increases and CPU overhead. IT admins run virtual machines live migrations without an idea about the migration cost. So, resources bottlenecks, higher migration cost and migration failures might happen. The first problem that we discuss in this thesis is how to model the cost of the virtual machines live migration. Secondly, we investigate how to make use of machine learning techniques to help the cloud admins getting an estimation of this cost before initiating the migration for one of multiple virtual machines. Also, we discuss the optimal timing for a specific virtual machine before live migration to another server. Finally, we propose practical solutions that can be used by the cloud admins to be integrated with the cloud administration portals to answer the raised research questions above. Our research methodology to achieve the project objectives is to propose empirical models based on using VMware test-beds with different benchmarks tools. Then we make use of the machine learning techniques to propose a prediction approach for virtual machines live migration cost. Timing optimization for live migration is also proposed in this thesis based on using the cost prediction and data-centers network utilization prediction. Live migration with persistent memory clusters is also discussed at the end of the thesis. The cost prediction and timing optimization techniques proposed in this thesis could be practically integrated with VMware vSphere cluster portal such that the IT admins can now use the cost prediction feature and timing optimization option before proceeding with a virtual machine live migration. Testing results show that our proposed approach for VMs live migration cost prediction shows acceptable results with less than 20% prediction error and can be easily implemented and integrated with VMware vSphere as an example of a commonly used resource management portal for virtual data-centers and private cloud environments. The results show that using our proposed VMs migration timing optimization technique also could save up to 51% of migration time of the VMs migration time for memory intensive workloads and up to 27% of the migration time for network intensive workloads. This timing optimization technique can be useful for network admins to save migration time with utilizing higher network rate and higher probability of success. At the end of this thesis, we discuss the persistent memory technology as a new trend in servers memory technology. Persistent memory modes of operation and configurations are discussed in detail to explain how live migration works between servers with different memory configuration set up. Then, we build a VMware cluster with persistent memory inside server and also with DRAM only servers to show the live migration cost difference between the VMs with DRAM only versus the VMs with persistent memory inside. N2 - Die dynamische Ressourcenverwaltung ist eine wesentliche Voraussetzung für private und öffentliche Cloud-Computing-Umgebungen. Bei der dynamischen Ressourcenverwaltung hängt die Zuweisung der physischen Ressourcen zu den virtuellen Cloud-Ressourcen vom tatsächlichen Bedarf der Anwendungen oder der laufenden Dienste ab, was die Auslastung der physischen Cloud-Ressourcen verbessert und die Kosten für die angebotenen Dienste reduziert. Darüber hinaus können die virtuellen Ressourcen über verschiedene physische Ressourcen in der Cloud-Umgebung verschoben werden, ohne dass dies einen offensichtlichen Einfluss auf die laufenden Anwendungen oder die Produktion der Dienste hat. Das bedeutet, dass die Verfügbarkeit der laufenden Dienste und Anwendungen in der Cloud unabhängig von den Hardwareressourcen einschließlich der Server, Netzwerke und Speicherausfälle ist. Dies erhöht die Zuverlässigkeit bei der Nutzung von Cloud-Diensten im Vergleich zu klassischen Rechenzentrumsumgebungen. In dieser Arbeit wird das Thema der dynamischen Ressourcenverwaltung kurz erörtert, um sich dann eingehend mit der Live-Migration als Definition der dynamischen Verwaltung von Compute-Ressourcen zu beschäftigen. Live-Migration ist eine häufig verwendete und wesentliche Funktion in Cloud- und virtuellen Rechenzentrumsumgebungen. Cloud-Computing-Lastausgleich, Energiespar- und Fehlertoleranzfunktionen sind alle von der Live-Migration abhängig, um die Nutzung der virtuellen und physischen Ressourcen zu optimieren. Wie wir in dieser Arbeit erörtern werden, zeigt die Live-Migration viele Vorteile für Cloud- und virtuelle Rechenzentrumsumgebungen, jedoch können die Kosten der Live-Migration nicht ignoriert werden. Zu den Kosten der Live-Migration gehören die Migrationszeit, die Ausfallzeit, der Netzwerk-Overhead, der Anstieg des Stromverbrauchs und der CPU-Overhead. IT-Administratoren führen Live-Migrationen von virtuellen Maschinen durch, ohne eine Vorstellung von den Migrationskosten zu haben. So kann es zu Ressourcenengpässen, höheren Migrationskosten und Migrationsfehlern kommen. Das erste Problem, das wir in dieser Arbeit diskutieren, ist, wie man die Kosten der Live-Migration virtueller Maschinen modellieren kann. Zweitens untersuchen wir, wie maschinelle Lerntechniken eingesetzt werden können, um den Cloud-Administratoren zu helfen, eine Schätzung dieser Kosten zu erhalten, bevor die Migration für eine oder mehrere virtuelle Maschinen eingeleitet wird. Außerdem diskutieren wir das optimale Timing für eine bestimmte virtuelle Maschine vor der Live-Migration auf einen anderen Server. Schließlich schlagen wir praktische Lösungen vor, die von den Cloud-Admins verwendet werden können, um in die Cloud-Administrationsportale integriert zu werden, um die oben aufgeworfenen Forschungsfragen zu beantworten. Unsere Forschungsmethodik zur Erreichung der Projektziele besteht darin, empirische Modelle vorzuschlagen, die auf der Verwendung von VMware-Testbeds mit verschiedenen Benchmark-Tools basieren. Dann nutzen wir die Techniken des maschinellen Lernens, um einen Vorhersageansatz für die Kosten der Live-Migration virtueller Maschinen vorzuschlagen. Die Timing-Optimierung für die Live-Migration wird ebenfalls in dieser Arbeit vorgeschlagen, basierend auf der Kostenvorhersage und der Vorhersage der Netzwerkauslastung des Rechenzentrums. Die Live-Migration mit Clustern mit persistentem Speicher wird ebenfalls am Ende der Arbeit diskutiert. Die in dieser Arbeit vorgeschlagenen Techniken zur Kostenvorhersage und Timing-Optimierung könnten praktisch in das VMware vSphere-Cluster-Portal integriert werden, so dass die IT-Administratoren nun die Funktion zur Kostenvorhersage und die Option zur Timing-Optimierung nutzen können, bevor sie mit einer Live-Migration der virtuellen Maschine fortfahren. Die Testergebnisse zeigen, dass unser vorgeschlagener Ansatz für die VMs-Live-Migrationskostenvorhersage akzeptable Ergebnisse mit weniger als 20\% Fehler in der Vorhersagegenauigkeit zeigt und leicht implementiert und in VMware vSphere als Beispiel für ein häufig verwendetes Ressourcenmanagement-Portal für virtuelle Rechenzentren und private Cloud-Umgebungen integriert werden kann. Die Ergebnisse zeigen, dass mit der von uns vorgeschlagenen Technik zur Timing-Optimierung der VMs-Migration auch bis zu 51\% der Migrationszeit für speicherintensive Workloads und bis zu 27\% der Migrationszeit für netzwerkintensive Workloads eingespart werden können. Diese Timing-Optimierungstechnik kann für Netzwerkadministratoren nützlich sein, um Migrationszeit zu sparen und dabei eine höhere Netzwerkrate und eine höhere Erfolgswahrscheinlichkeit zu nutzen. Am Ende dieser Arbeit wird die persistente Speichertechnologie als neuer Trend in der Server-Speichertechnologie diskutiert. Die Betriebsarten und Konfigurationen des persistenten Speichers werden im Detail besprochen, um zu erklären, wie die Live-Migration zwischen Servern mit unterschiedlichen Speicherkonfigurationen funktioniert. Dann bauen wir einen VMware-Cluster mit persistentem Speicher im Server und auch mit Servern nur mit DRAM auf, um den Kostenunterschied bei der Live-Migration zwischen den VMs mit nur DRAM und den VMs mit persistentem Speicher im Server zu zeigen. KW - virtual KW - cloud KW - computing KW - machines KW - live migration KW - machine learning KW - prediction KW - Wolke KW - Computing KW - Live-Migration KW - maschinelles Lernen KW - Maschinen KW - Vorhersage KW - virtuell Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-540013 ER - TY - THES A1 - Xiong, Tao T1 - Vibrationally resolved absorption, emission, resonance Raman and photoelectron spectra of selected organic molecules, associated radicals and cations T1 - Schwingungsaufgelöste Absorptions-, Emissions-, Resonanz-Raman- und Photoelektronenspektren ausgewählter organischer Moleküle, assoziierter Radikale und Kationen BT - a time-dependent approach BT - ein zeitabhängiger Ansatz N2 - Time-dependent correlation function based methods to study optical spectroscopy involving electronic transitions can be traced back to the work of Heller and coworkers. This intuitive methodology can be expected to be computationally efficient and is applied in the current work to study the vibronic absorption, emission, and resonance Raman spectra of selected organic molecules. Besides, the "non-standard" application of this approach to photoionization processes is also explored. The application section consists of four chapters as described below. In Chapter 4, the molar absorptivities and vibronic absorption/emission spectra of perylene and several of its N-substituted derivatives are investigated. By systematically varying the number and position of N atoms, it is shown that the presence of nitrogen heteroatoms has a negligible effect on the molecular structure and geometric distortions upon electronic transitions, while spectral properties are more sensitive: In particular the number of N atoms is important while their position is less decisive. Thus, N-substitution can be used to fine-tune the optical properties of perylene-based molecules. In Chapter 5, the same methods are applied to study the vibronic absorption/emission and resonance Raman spectra of a newly synthesized donor-acceptor type molecule. The simulated absorption/emission spectra agree fairly well with experimental data, with discrepancies being attributed to solvent effects. Possible modes which may dominate the fine-structure in the vibronic spectra are proposed by analyzing the correlation function with the aid of Raman and resonance Raman spectra. In the next two chapters, besides the above types of spectra, the methods are extended to study photoelectron spectra of several small diamondoid-related systems (molecules, radicals, and cations). Comparison of the photoelectron spectra with available experimental data suggests that the correlation function based approach can describe ionization processes reasonably well. Some of these systems, cationic species in particular, exhibit somewhat peculiar optical behavior, which presents them as possible candidates for functional devices. Correlation function based methods in a more general sense can be very versatile. In fact, besides the above radiative processes, formulas for non-radiative processes such as internal conversion have been derived in literature. Further implementation of the available methods is among our next goals. N2 - Molekülsysteme bestehen aus Kernen und Elektronen, deren viel kleinere Masse sie in die Lage versetzten, sich der Bewegung des ersteren augenblicklich anzupassen. Daher ist die Bewegung der Elektronen und Kerne in einer guten ersten Annäherung "unabhängig", und die Energie der Elektronen kann zuerst berechnet werden, vorausgesetzt, die Kerne sind stationär. Die so gewonnene elektronische Energie wird zur Abstoßungsenergie zwischen den Kernen addiert, um ein Potential zu erhalten, das die Bewegung der Kerne bestimmt. Quantenmechanisch können sowohl die Elektronen als auch die Kerne nur bestimmte Energieniveaus haben. Die molekulare vibronische (= Schwingung + Elektronik) Absorptionsspektroskopie beinhaltet den Übergang der Elektronen und Kerne von ihrem Anfangs- in ihren Endzustand durch Photonenabsorption. Die größere elektronische Übergangsenergie bestimmt die Position des Absorptionsmaximums, während die kleinere nukleare Schwingungsübergangsenergie (ohne Berücksichtigung von Translation und Rotation) die Position der Teilmaxima innerhalb des Absorptionsbereichs bestimmt, wodurch die vibronische Feinstruktur entsteht. Ähnliche Ideen gelten auch für die vibronische Emissionsspektroskopie. Die Resonanz-Raman-Spektroskopie untersucht die Energieänderung des einfallenden Photons (dessen Energie ausreichend ist, um die Elektronen in einen höheren elektronischen Zustand anzuregen), nachdem es mit dem Molekül wechselwirkt. Der Energiegewinn oder -verlust des einfallenden Photons bewirkt eine Änderung des Schwingungszustandes. Die Photoelektronenspektroskopie ist ähnlich wie die vibronische Absorption, benötigt aber in der Regel mehr Energie des einfallenden Photons, da neben der Anregung des Moleküls in einen höheren vibronischen Zustand zusätzliche Energie benötigt wird, um ein Elektron aus dem Molekül zu entfernen. Diese spektroskopischen Techniken liefern wertvolle Informationen über die elektronische und nukleare Bewegung des Moleküls. Theoretisch können wir eine zeitabhängige Korrelationsfunktion verwenden, um die Spektren zu simulieren. Die Korrelationsfunktion für die Absorption ist beispielsweise eine Funktion der Zeit, deren Entwicklung Informationen über die elektronischen Energien und die nukleare Bewegung enthält. Um das Absorptionsspektrum in Form von Energie zu erhalten, wird ein mathematisches Verfahren, die so genannte Fourier-Transformation, auf die zeitabhängige Korrelationsfunktion angewendet, um ein energieabhängiges Spektrum zu erhalten. Diese Methode wird auf ausgewählte organische Moleküle, darunter einige Radikale und Kationen, angewandt, um deren elektronisches und optisches Verhalten unter dem Einfluss von einfallendem Licht zu untersuchen und Einblicke in das Design neuer optoelektronischer Bauelemente zu gewinnen. Bei einigen Molekülen/Systemen wird die vibronische Feinstruktur durch Faktoren wie molekulare Zusammensetzung und Umgebung wie Lösungsmittel beeinflusst, was darauf hindeutet, dass diese Systeme zur Feinabstimmung der gewünschten Eigenschaften verwendet werden können. Für andere Systeme gibt es fast keine sichtbare vibronische Feinstruktur, was bedeutet, dass sich die nukleare Bewegung solcher Systeme im Allgemeinen von derjenigen der vorherigen Kategorie unterscheidet. KW - vibrationally resolved electronic spectroscopy KW - photoelectron spectroscopy KW - resonance Raman spectroscopy KW - correlation function KW - ionization potential KW - time-dependent density functional theory KW - perylene KW - diamondoid KW - Schwingungsaufgelöste UV/VIS-Spektroskopie KW - Photoelektronenspektroskopie KW - Resonanz-Raman-Spektroskopie KW - Korrelationsfunktion KW - Ionisationspotential KW - Zeitabhängige Dichtefunktionaltheorie KW - Perylen KW - Diamondoide Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418105 ER - TY - THES A1 - Vazhappilly, Tijo Joseph T1 - Vibrationally enhanced associative photodesorption of H2 (D2) from Ru(0001) : quantum and classical approaches T1 - Vibrationsgesteigerte assoziative Photodesorptionvon H2 (D2 ) von Ru(0001) : Quantendynamische und klassiche Simulationen N2 - Nowadays, reactions on surfaces are attaining great scientific interest because of their diverse applications. Some well known examples are production of ammonia on metal surfaces for fertilizers and reduction of poisonous gases from automobiles using catalytic converters. More recently, also photoinduced reactions at surfaces, useful, \textit{e.g.}, for photocatalysis, were studied in detail. Often, very short laser pulses are used for this purpose. Some of these reactions are occurring on femtosecond (1 fs=$10^{-15}$ s) time scales since the motion of atoms (which leads to bond breaking and new bond formation) belongs to this time range. This thesis investigates the femtosecond laser induced associative photodesorption of hydrogen, H$_2$, and deuterium, D$_2$, from a ruthenium metal surface. Many interesting features of this reaction were explored by experimentalists: (i) a huge isotope effect in the desorption probability of H$_2$ and D$_2$, (ii) the desorption yield increases non-linearly with the applied visible (vis) laser fluence, and (iii) unequal energy partitioning to different degrees of freedom. These peculiarities are due to the fact that an ultrashort vis pulse creates hot electrons in the metal. These hot electrons then transfer energy to adsorbate vibrations which leads to desorption. In fact, adsorbate vibrations are strongly coupled to metal electrons, \textit{i.e.}, through non-adiabatic couplings. This means that, surfaces introduce additional channels for energy exchange which makes the control of surface reactions more difficult than the control of reactions in the gas phase. In fact, the quantum yield of surface photochemical reactions is often notoriously small. One of the goals of the present thesis is to suggest, on the basis of theoretical simulations, strategies to control/enhance the photodesorption yield of H$_2$ and D$_2$ from Ru(0001). For this purpose, we suggest a \textit{hybrid scheme} to control the reaction, where the adsorbate vibrations are initially excited by an infrared (IR) pulse, prior to the vis pulse. Both \textit{adiabatic} and \textit{non-adiabatic} representations for photoinduced desorption problems are employed here. The \textit{adiabatic} representation is realized within the classical picture using Molecular Dynamics (MD) with electronic frictions. In a quantum mechanical description, \textit{non-adiabatic} representations are employed within open-system density matrix theory. The time evolution of the desorption process is studied using a two-mode reduced dimensionality model with one vibrational coordinate and one translational coordinate of the adsorbate. The ground and excited electronic state potentials, and dipole function for the IR excitation are taken from first principles. The IR driven vibrational excitation of adsorbate modes with moderate efficiency is achieved by (modified) $\pi$-pulses or/and optimal control theory. The fluence dependence of the desorption reaction is computed by including the electronic temperature of the metal calculated from the two-temperature model. Here, our theoretical results show a good agreement with experimental and previous theoretical findings. We then employed the IR+vis strategy in both models. Here, we found that vibrational excitation indeed promotes the desorption of hydrogen and deuterium. To summarize, we conclude that photocontrol of this surface reaction can be achieved by our IR+vis scheme. N2 - Heutzutage werden Reaktionen auf Oberflächen wegen ihrer vielfältigen Anwendungen intensiv untersucht. Einige der bekannten Beispiele sind die Herstellung von Ammoniak auf Metalloberflächen für die Kunstdüngerproduktion und die Reduktion giftiger Abgase in Autokatalysatoren. In letzter Zeit wurden auch photoinduzierte Reaktionen an Oberflächen eingehender untersucht, die z.B. für die Photokatalyse verwandt werden können. Häufig werden in diesen Untersuchungen sehr kurze Laserpulse benutzt. Einige der Reaktionen finden auf einer Femtosekunden-Zeitskala \mbox{(1 fs =10$^{-15}$ s)} statt, da die Bewegungen einzelner Atome in derart kurzen Zeitspannen ablaufen (durch die der Bindungsbruch und das Knüpfen neuer Bindungen verursacht wird). Diese Arbeit untersucht die femtosekunden-laserinduzierte assoziative Photodesorption von Wasserstoff, H$_2$, und Deuterium, D$_2$, von einer Rutheniumoberfläche. Viele interessante Eigenschaften dieser Reaktion wurden in Experimenten entdeckt: (i) ein großer Isotopeneffekt in der Desorptionswahrscheinlichkeit von H$_2$ und D$_2$, (ii) die Desorptionsausbeute steigt nicht-linear mit der (vis) Laserfluenz an und (iii) eine Nicht-Gleichverteilung der Energie auf die einzelnen Freiheitsgrade. Diese Auffälligkeiten sind durch den Umstand verursacht, dass der ultrakurze vis-Laserpuls heiße Elektronen im Metall erzeugt. Die heißen Elektronen transferieren dann Energie in die Schwingungen des Adsorbats, was zur Desorption führt. Tatsächlich sind die Adsorbatschwingungen stark an die Elektronen gekoppelt, nämlich durch nicht-adiabatische Kopplungen. Dies bedeutet, dass durch Oberflächen neue Kanäle für den Energietransfer geöffnet werden, was die Kontrolle von Oberflächenreaktionen im Vergleich zu solchen in der Gasphase erschwert. In der Tat sind die Quantenausbeuten von photochemischen Oberflächenreaktionen bekannterweise klein. Eines der Ziele in der vorliegenden Arbeit ist es auf der Basis von theoretischen Simulationen Strategien vorzuschlagen, um die Photodesorptionsausbeute von H$_2$ und D$_2$ von Ru(0001) zu kontrollieren bzw. zu verbessern. Zu diesem Zweck schlagen wir ein gemischtes Kontrollschema für die Reaktion vor, bei dem zunächst die Adsorbatschwingungen vor dem vis-Puls durch einen infraroten (IR) Puls angeregt werden. Sowohl adiabatische als auch nicht-adiabatische Repräsentationen für photoinduzierte Desorptionsprozesse werden dabei benutzt. Die adiabatische Repräsentation ist in klassischen Molekulardynamik-Simulationen mit elektronischer Reibung verwirklicht. In einer quantenmechanischen Beschreibung werden nicht-adiabatische Repräsentationen innerhalb der Dichtematrixtheorie für offene Quantensysteme verwandt. Die zeitliche Entwicklung des Desorptionsprozesses wird in einem Zwei-Modenmodell reduzierter Dimensionalität mit einer Schwingungs- und einer Translationskoordinate des Adsorbats beschrieben. Die Potentiale für den elektronische Grundzustand und den angeregten Zustand sind abgeleitet aus quantenchemischen Rechnungen (\textsl{first principles}). Die IR-getriebene Schwingungsanregung der Adsorbatmoden mit moderatem Wirkungsgrad wird mit (modifizierten) $\pi$-Pulsen und/oder der Theorie der optimalen Kontrolle erreicht. Die Abhängigkeit der Desorption von der Fluenz wird mit Hilfe der elektronischen Temperatur des Metalls berechnet, welche im Rahmen des Zwei-Temperatur-Modells bestimmt wird. Dabei weisen unsere Ergebnisse eine gute Übereinstimmung mit experimentellen und früheren theoretischen Arbeiten auf. Daraufhin wandten wir die IR+vis Strategie in beiden Modellen an. Dadurch konnten wir zeigen, dass Schwingungsanregung in der Tat die Desorption von Wasserstoff und Deuterium begünstigt. Zusammenfassend stellen wir fest, dass die Photokontrolle dieser Oberflächenreaktion durch unser IR+vis Schema erreichbar ist. KW - Quantendynamische Simulationen KW - Klassiche Simulationen KW - assoziative Photodesorption KW - Schwingungsanregung KW - Photodesorption KW - quantum dynamics KW - classical dynamics KW - vibrational control KW - vibrational excitation Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-19056 ER - TY - THES A1 - Hoffmann, Holger T1 - Vertical structures induced by embedded propeller moonlets in Saturn's rings Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Rojas Carillo, Oscar Mario T1 - Versatile uses of halogen-free Ionic Liquids for the formulation of non-aqueous microemulsion and synthesis of gold nanoparticles Y1 - 2012 CY - Potsdam ER - TY - THES A1 - Kanehira, Yuya T1 - Versatile DNA origami based SERS substrates for spectroscopic applications Y1 - 2023 ER - TY - THES A1 - Giuri, Chiara T1 - VERITAS Dark Matter search in dwarf spheroidal galaxies: an extended analysis T1 - VERITAS-Suche nach dunkler Materie in sphäroidischen Zwerggalaxien: eine erweiterte Analyse” N2 - In the last century, several astronomical measurements have supported that a significant percentage (about 22%) of the total mass of the Universe, on galactic and extragalactic scales, is composed of a mysterious ”dark” matter (DM). DM does not interact with the electromagnetic force; in other words it does not reflect, absorb or emit light. It is possible that DM particles are weakly interacting massive particles (WIMPs) that can annihilate (or decay) into Standard Model (SM) particles, and modern very- high-energy (VHE; > 100 GeV) instruments such as imaging atmospheric Cherenkov telescopes (IACTs) can play an important role in constraining the main properties of such DM particles, by detecting these products. One of the most privileged targets where to look for DM signal are dwarf spheroidal galaxies (dSphs), as they are expected to be high DM-dominated objects with a clean, gas-free environment. Some dSphs could be considered as extended sources, considering the angular resolution of IACTs; their angu- lar resolution is adequate to detect extended emission from dSphs. For this reason, we performed an extended-source analysis, by taking into account in the unbinned maximum likelihood estimation both the energy and the angular extension dependency of observed events. The goal was to set more constrained upper limits on the velocity-averaged cross-section annihilation of WIMPs with VERITAS data. VERITAS is an array of four IACTs, able to detect γ-ray photons ranging between 100 GeV and 30 TeV. The results of this extended analysis were compared against the traditional spectral analysis. We found that a 2D analysis may lead to more constrained results, depending on the DM mass, channel, and source. Moreover, in this thesis, the results of a multi-instrument project are presented too. Its goal was to combine already published 20 dSphs data from five different experiments, such as Fermi-LAT, MAGIC, H.E.S.S., VERITAS and HAWC, in order to set upper limits on the WIMP annihilation cross-section in the widest mass range ever reported. N2 - Im letzten Jahrhundert haben verschiedene mehrere astronomische Messungen gezeigt, dass ein erheblicher Prozentsatz (etwa 22 %) der Gesamtmasse des Universums auf galaktischer und extragalaktischer Ebene aus einer geheimnisvollen ”dunklen” Materie (DM) besteht. DM interagiert nicht mit der elektromagnetischen Kraft und reflektiert, absorbiert oder emittiert daher kein Licht. Es ist möglich, dass es sich bei DM-Teilchen um schwach wechselwirkende massive Teilchen (engl. weakly interacting massive particles, WIMPs) handelt, die in Teilchen des Standardmodells (SM) annihilieren (oder zerfallen) können. Indem sie diese Produkte nachweisen, können moderne Detektoren für sehr hoch energetische (engl. very-high-energy, VHE; 100 GeV) Gammastrahlung, wie zum Beispiel bildgebende atmosphärische Cherenkov-Teleskope (engl. imaging atmospheric Cherenkov telescopes, IACTs), eine wichtige Rolle bei der Bestimmung der Haupteigenschaften solcher DM-Teilchen spielen. Eines der am besten geeignetsten Ziele für die Suche nach DM-Signalen sind sphäroidische Zwerggalaxien (engl. dwarf spheroidal galaxies, dSphs), da diese stark DM-dominierte Objekte mit einer gasfreien Umgebung sind. Die Winkelauflösung von IACTs ist ausreichend, um ausgedehnte Emission von dSphs zu entdecken. Aus diesem Grund haben wir eine Analyse dieser Quellen durchgeführt, indem wir in der unbinned Maximum-Likelihood-Schätzung sowohl die Energie als auch die Abhängigkeit der Winkelausdehnung der beobachteten Gammastrahlung berücksichtigt haben. Das Ziel war es, mit Hilfe der VERITAS-Daten genauere Obergrenzen für den geschwindigkeitsgemittelten Annihilationsquerschnitt von WIMPs zu bestimmen. VERITAS ist eine Anordnung von vier IACTs, die Gammastrahlen im Bereich von 100 GeV bis 30 TeV detektieren können. Die Ergebnisse dieser erweiterten Analyse wurden mit der traditionellen Spektralanalyse verglichen. Es zeigte sich, dass je nach DM-Masse, Kanal und Quelle eine 2D-Analyse zu aussagekräftigeren Ergebnissen führen kann. Darüber hinaus werden in dieser Arbeit auch die Ergebnisse eines Multi-Instrumenten-Projekts vorgestellt. Das Ziel war es, die bereits veröffentlichte 20 dSphs-Datensätze von Fermi-LAT, MAGIC, H.E.S.S., VERITAS und HAWC zu kombinieren, um obere Grenzwerte für den WIMP-Annihilationsquerschnitt im breitesten jemals veröffentlichten Massenbereich zu bestimmen. KW - Dark Matter KW - data analysis KW - Cherenkov telescopes KW - dwarf spheroidal galaxies KW - Dunkle Materie KW - Datenanalyse KW - Cherenkov-Teleskope KW - sphäroidische Zwerggalaxien Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-575869 ER - TY - THES A1 - Yang, Lei T1 - Verification of systemic mRNAs mobility and mobile functions Y1 - 2017 ER - TY - THES A1 - Dyck, Johannes T1 - Verification of graph transformation systems with k-inductive invariants T1 - Verifikation von Graphtransformationssystemen mit k-induktiven Invarianten N2 - With rising complexity of today's software and hardware systems and the hypothesized increase in autonomous, intelligent, and self-* systems, developing correct systems remains an important challenge. Testing, although an important part of the development and maintainance process, cannot usually establish the definite correctness of a software or hardware system - especially when systems have arbitrarily large or infinite state spaces or an infinite number of initial states. This is where formal verification comes in: given a representation of the system in question in a formal framework, verification approaches and tools can be used to establish the system's adherence to its similarly formalized specification, and to complement testing. One such formal framework is the field of graphs and graph transformation systems. Both are powerful formalisms with well-established foundations and ongoing research that can be used to describe complex hardware or software systems with varying degrees of abstraction. Since their inception in the 1970s, graph transformation systems have continuously evolved; related research spans extensions of expressive power, graph algorithms, and their implementation, application scenarios, or verification approaches, to name just a few topics. This thesis focuses on a verification approach for graph transformation systems called k-inductive invariant checking, which is an extension of previous work on 1-inductive invariant checking. Instead of exhaustively computing a system's state space, which is a common approach in model checking, 1-inductive invariant checking symbolically analyzes graph transformation rules - i.e. system behavior - in order to draw conclusions with respect to the validity of graph constraints in the system's state space. The approach is based on an inductive argument: if a system's initial state satisfies a graph constraint and if all rules preserve that constraint's validity, we can conclude the constraint's validity in the system's entire state space - without having to compute it. However, inductive invariant checking also comes with a specific drawback: the locality of graph transformation rules leads to a lack of context information during the symbolic analysis of potential rule applications. This thesis argues that this lack of context can be partly addressed by using k-induction instead of 1-induction. A k-inductive invariant is a graph constraint whose validity in a path of k-1 rule applications implies its validity after any subsequent rule application - as opposed to a 1-inductive invariant where only one rule application is taken into account. Considering a path of transformations then accumulates more context of the graph rules' applications. As such, this thesis extends existing research and implementation on 1-inductive invariant checking for graph transformation systems to k-induction. In addition, it proposes a technique to perform the base case of the inductive argument in a symbolic fashion, which allows verification of systems with an infinite set of initial states. Both k-inductive invariant checking and its base case are described in formal terms. Based on that, this thesis formulates theorems and constructions to apply this general verification approach for typed graph transformation systems and nested graph constraints - and to formally prove the approach's correctness. Since unrestricted graph constraints may lead to non-termination or impracticably high execution times given a hypothetical implementation, this thesis also presents a restricted verification approach, which limits the form of graph transformation systems and graph constraints. It is formalized, proven correct, and its procedures terminate by construction. This restricted approach has been implemented in an automated tool and has been evaluated with respect to its applicability to test cases, its performance, and its degree of completeness. N2 - Durch die Komplexität heutiger Software- und Hardwaresysteme und den vermuteten Anstieg der Zahl autonomer und intelligenter Systeme bleibt die Entwicklung korrekter Systeme eine wichtige Herausforderung. Obwohl Testen ein wichtiger Teil des Entwicklungszyklusses ist und bleibt, reichen Tests üblicherweise nicht aus, um die Korrektkeit eines Systems sicherzustellen - insbsondere wenn Systeme beliebig große oder unendliche Zustandsräume oder unendlich viele mögliche initiale Zustände aufweisen. Formale Verifikation nimmt sich dieses Problems an: Nach Darstellung des Systems in einem formalen Modell können Verifikationsansätze und Werkzeuge angewendet werden, um zu analysieren, ob das System seine Spezifikation erfüllt. Ein verbreiteter Formalismus für derartige Modelle sind Graphen und Graphtransformationssysteme. Diese Konzepte basieren auf etablierten mathematischen Grundlagen und sind ausdrucksstark genug, um komplexe Software- oder Hardwaresysteme auf verschiedenen Abstraktionsstufen zu beschreiben. Seit ihrer Einführung in den 70er-Jahren wurden Graphtransformationssysteme stetig weiterentwickelt; entsprechende Forschung thematisiert beispielsweise Ausdrucksstärke, Graphalgorithmen, Anwendungsbeispiele oder Verifikationsansätze. Diese Arbeit beschäftigt sich mit der Verifikation k-induktiver Invarianten für Graphtransformationssysteme - einem Ansatz, der eine existierende Technik zur Verifikation 1-induktiver Invarianten erweitert. Anstatt den Zustandsraum eines Systems zu berechnen, überprüft Verifikation mit 1-Induktion Verhalten (Graphtransformationsregeln) symbolisch, um Schlussfolgerungen zur Gültigkeit von Graphbedingungen zu ziehen. Die Idee basiert auf dem Prinzip eines Induktionsbeweises: Falls der initiale Zustand eines Systems eine Bedingung erfüllt und falls alle Regeln die Erfüllung der Bedingung bewahren, kann auf die Gültigkeit der Bedingung im gesamten Zustandsraum geschlossen werden, ohne diesen tatsächlich zu berechnen. Allerdings bringt dieser Ansatz auch spezifische Nachteile mit sich: Die lokale Natur der Anwendung von Graphregeln führt zu einem Mangel an Kontext während der symbolischen Analyse möglicher Regelanwendungen. Diese Arbeit führt aus, dass dieser Mangel an Kontext teilweise behoben werden kann, indem k-Induktion statt 1-Induktion verwendet wird. Eine k-induktive Invariante ist eine Graphbedingung, deren Gültigkeit in einem Pfad von k-1 Regelanwendungen die Gültigkeit nach jeder etwaigen weiteren Regelanwendung zur Folge hat. Durch die Berücksichtigung solcher Pfade von Transformationen steht mehr Kontext während der Analyse zur Verfügung als bei der Analyse nur einer Regelanwendung bei 1-Induktion. Daher erweitert diese Arbeit bestehende Forschungsergebnisse und eine Implementierung zur Verifikation 1-induktiver Invarianten um k-Induktion. Zusätzlich wird eine Technik vorgestellt, die auch die Analyse der Induktionsbasis symbolisch ausführt. Dies erlaubt die Verifikation von Systemen mit einer unendlichen Zahl an möglichen initialen Zuständen. Sowohl k-induktive Invarianten als auch deren Induktionsbasis werden - für Graphtransformationssysteme - formal beschrieben. Basierend darauf stellt diese Arbeit Theoreme und Kontruktionen vor, die diesen Verifikationsansatz mathemathisch umsetzen und seine Korrektheit beweisen. Da jedoch uneingeschränkte Graphbedingungen in einer möglichen Implementierung zu Nichtterminierung oder langen Ausführungszeiten führen, stellt diese Arbeit auch einen eingeschränkten Verifikationsansatz vor, der die Form der zugelassenen Graphtransformationssysteme und Graphbedingungen in Spezifikationen einschränkt. Auch dieser Ansatz wird formalisiert, bewiesen - und das Verfahren terminiert per Konstruktion. Der Ansatz wurde in Form eines automatisch ausführbaren Verifikationswerkzeugs implementiert und wurde in Bezug auf seine Anwendbarkeit, Performanz und des Grades der Vollständigkeit evaluiert. KW - formal verification KW - graph transformations KW - inductive invariant checking KW - k-induction KW - graph constraints KW - application conditions KW - k-inductive invariant KW - graph transformation systems KW - formale Verifikation KW - Graphtransformationen KW - Verifikation induktiver Invarianten KW - k-Induktion KW - Graphbedingungen KW - Anwendungsbedingungen KW - k-induktive Invariante KW - Graphtransformationssysteme Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442742 ER - TY - THES A1 - Niemeyer, Bastian T1 - Vegetation reconstruction and assessment of plant diversity at the treeline ecotone in northern Siberia Y1 - 2016 ER - TY - THES A1 - Zimmermann, Heike Hildegard T1 - Vegetation changes and treeline dynamics in northern Siberia since the last interglacial revealed by sedimentary ancient DNA metabarcoding and organelle genome assembly of modern larches Y1 - 2017 ER - TY - THES A1 - Tian, Fang T1 - Vegetation and environmental changes on millennial, centennial and decadal time-scales in central Mongolia and their driving forces Y1 - 2014 ER - TY - THES A1 - Cao, Xianyong T1 - Vegetation and climate change in eastern continental Asia during the last 22 ka inferred from pollen data synthesis Y1 - 2014 ER - TY - THES A1 - Schlolaut, Gordon T1 - Varve and event layer chronology of Lake Suigetsu (Japan) back to 40 kyr BP and contribution to the international consensus atmospheric radiocarbon calibration curve T1 - Warven- und Ereignislagen-Chronologie der letzten 40 ka BP vom Suigetsu See (Japan) und Beitrag zur internationalen atmosphärischen Radiokarbon-Kalibrationskurve N2 - The main intention of the PhD project was to create a varve chronology for the Suigetsu Varves 2006' (SG06) composite profile from Lake Suigetsu (Japan) by thin section microscopy. The chronology was not only to provide an age-scale for the various palaeo-environmental proxies analysed within the SG06 project, but also and foremost to contribute, in combination with the SG06 14C chronology, to the international atmospheric radiocarbon calibration curve (IntCal). The SG06 14C data are based on terrestrial leaf fossils and therefore record atmospheric 14C values directly, avoiding the corrections necessary for the reservoir ages of the marine datasets, which are currently used beyond the tree-ring limit in the IntCal09 dataset (Reimer et al., 2009). The SG06 project is a follow up of the SG93 project (Kitagawa & van der Plicht, 2000), which aimed to produce an atmospheric calibration dataset, too, but suffered from incomplete core recovery and varve count uncertainties. For the SG06 project the complete Lake Suigetsu sediment sequence was recovered continuously, leaving the task to produce an improved varve count. Varve counting was carried out using a dual method approach utilizing thin section microscopy and micro X-Ray Fluorescence (µXRF). The latter was carried out by Dr. Michael Marshall in cooperation with the PhD candidate. The varve count covers 19 m of composite core, which corresponds to the time frame from ≈10 to ≈40 kyr BP. The count result showed that seasonal layers did not form in every year. Hence, the varve counts from either method were incomplete. This rather common problem in varve counting is usually solved by manual varve interpolation. But manual interpolation often suffers from subjectivity. Furthermore, sedimentation rate estimates (which are the basis for interpolation) are generally derived from neighbouring, well varved intervals. This assumes that the sedimentation rates in neighbouring intervals are identical to those in the incompletely varved section, which is not necessarily true. To overcome these problems a novel interpolation method was devised. It is computer based and automated (i.e. avoids subjectivity and ensures reproducibility) and derives the sedimentation rate estimate directly from the incompletely varved interval by statistically analysing distances between successive seasonal layers. Therefore, the interpolation approach is also suitable for sediments which do not contain well varved intervals. Another benefit of the novel method is that it provides objective interpolation error estimates. Interpolation results from the two counting methods were combined and the resulting chronology compared to the 14C chronology from Lake Suigetsu, calibrated with the tree-ring derived section of IntCal09 (which is considered accurate). The varve and 14C chronology showed a high degree of similarity, demonstrating that the novel interpolation method produces reliable results. In order to constrain the uncertainties of the varve chronology, especially the cumulative error estimates, U-Th dated speleothem data were used by linking the low frequency 14C signal of Lake Suigetsu and the speleothems, increasing the accuracy and precision of the Suigetsu calibration dataset. The resulting chronology also represents the age-scale for the various palaeo-environmental proxies analysed in the SG06 project. One proxy analysed within the PhD project was the distribution of event layers, which are often representatives of past floods or earthquakes. A detailed microfacies analysis revealed three different types of event layers, two of which are described here for the first time for the Suigetsu sediment. The types are: matrix supported layers produced as result of subaqueous slope failures, turbidites produced as result of landslides and turbidites produced as result of flood events. The former two are likely to have been triggered by earthquakes. The vast majority of event layers was related to floods (362 out of 369), which allowed the construction of a respective chronology for the last 40 kyr. Flood frequencies were highly variable, reaching their greatest values during the global sea level low-stand of the Glacial, their lowest values during Heinrich Event 1. Typhoons affecting the region represent the most likely control on the flood frequency, especially during the Glacial. However, also local, non-climatic controls are suggested by the data. In summary, the work presented here expands and revises knowledge on the Lake Suigetsu sediment and enabls the construction of a far more precise varve chronology. The 14C calibration dataset is the first such derived from lacustrine sediments to be included into the (next) IntCal dataset. References: Kitagawa & van der Plicht, 2000, Radiocarbon, Vol 42(3), 370-381 Reimer et al., 2009, Radiocarbon, Vol 51(4), 1111-1150 N2 - Die Hauptzielsetzung der Doktorarbeit war die Erstellung einer Warvenchronologie für das Kompositprofil der "Suigetsu Varves 2006" (SG06) Sedimentbohrung vom Suigetsu See durch Dünnschliffmikroskopie. Die Chronologie soll dabei nicht nur als Altersskala für die unterschiedlichen Proxies, die im Rahmen des SG06 Projekts bearbeitet werden, dienen, sondern in Kombination mit der SG06 14C Chronologie auch zur Verbesserung der internationalen Radiokarbon Kalibrationskurve (IntCal) beitragen. Da die SG06 14C Daten aus fossilen, in den See eingewehten Blättern gewonnen wurden, geben sie den 14C Gehalt der Atmosphäre direkt wieder. Das heißt, dass Korrekturen entfallen, wie sie bei den derzeit im IntCal09 Datensatz (Reimer et al., 2009) genutzten marinen 14C Daten notwendig sind. Das SG06 Projekt ist ein Folgeprojekt des SG93 Projekts (Kitagawa & van der Plicht, 2000), welches ebenfalls die Erstellung eines Kalibrationsdatensatzes zur Zielsetzung hatte. Allerdings war das Sedimentprofil der SG93 Bohrung unvollständig und die Warvenchronologie unzureichend genau. Im Rahmen des SG06 Projekts wurde die komplette Sedimentabfolge des Sees erbohrt, so dass die Erstellung einer verbesserten Warvenchronologie als Aufgabe verblieb. Für die Erstellung der Warvenchronologie kam neben Dünnschliffmikroskopie eine zweite, unabhängige Zähltechnik zum Einsatz, die Mikro-Röntgenfluoresenz (µXRF) Daten nutzt. Diese Zählung wurde von Dr. Michael Marshall in Zusammenarbeit mit dem Doktoranden erstellt. Insgesamt wurden in 19 m des SG06 Sedimentprofils Warven gezählt, was dem Zeitabschnitt zwischen ≈10 und ≈40 ka BP entspricht. Die Warvenzählung zeigte, dass sich nicht jedes Jahr saisonale Lagen ausgebildet hatten und die Zählungen von beiden Techniken damit unvollständig waren. Dieses Problem tritt bei Warvenzählungen häufiger auf und wird in der Regel durch manuelle Interpolation der fehlenden Lagen gelöst. Allerdings hat der manuelle Ansatz Schwächen. Zum einen kann es zu subjektiven Ungenauigkeiten kommen, zum anderen wird die durchschnittliche Sedimentationsrate (welche die Grundlage der Interpolation ist) in der Regel aus benachbarten, gut warvierten Bereichen abgeleitet. Das setzt jedoch voraus, dass die Sedimentationsrate in den benachbarten Intervallen identisch mit der im zu interpolierenden Bereich ist, was nicht zwingend der Fall ist. Um diese Probleme zu umgehen wurde für die vorliegende Arbeit eine neuartige Interpolationsmethode entwickelt. Diese ist computergestützt und automatisiert und Ergebnisse daher objektiv und reproduzierbar. Weiterhin wird die Sedimentationsrate direkt aus dem zu interpolierenden Bereich bestimmt, indem die Abstände der auftretenden saisonalen Lagen statistisch ausgewertet werden. Daher kann die Methode auch für Profile ohne gut warvierte Bereiche eingesetzt werden. Ein weiterer Vorteil des neuen Interpolationsprogramms ist, dass ein objektiver Interpolationsfehlers berechnet wird. Die interpolierten Ergebnisse der beiden Zähltechniken wurden kombiniert und um nachzuweisen, dass es sich bei der resultierenden Chronologie um ein zuverlässiges Ergebnis handelt, wurde diese mit der mit IntCal09 kalibrierten 14C Chronologie vom Suigetsu See verglichen. Dabei wurde nur der Abschnitt berücksichtigt, in dem IntCal09 auf dendrologischen Daten beruht (bis 12,55 ka cal BP). Der Vergleich zeigte, dass die finale Warvenchronologie innerhalb des 68,2% Fehlerbereichs der 14C Datierungen lag. Das heißt, dass die Interpolationsmethode hinreichend genaue und zuverlässige Ergebnisse erzielt. Die Genauigkeit wurde weiter verbessert, indem die Chronologie mit U-Th Altern von Speläothemen modelliert wurde, wobei die tieffrequenten Signale der 14C Daten als Verbindung zwischen Suigetsu und den Speläothemen verwendet wurde, was die Konstruktion eines verbesserten Kalibrationdatensatzes erlaubte. Die modellierte Chronologie stellt dabei auch die Altersskale für die im SG06 Projekt analysierten Proxies dar. Ein Proxy der im Rahmen der Doktorarbeit untersucht wurde war die Verteilung von Ereignislagen. Diese sind in der Regel Anzeiger für Flutereignisse oder Erdbeben. Die mikrofazielle Untersuchung der Ereignislagen zeigte drei verschiedene Lagentypen auf, wobei zwei davon hier erstmals für den Suigetsu See beschrieben sind. Die Lagentypen sind: Matrix dominierte Lagen als Ergebnis von Seegrundrutschungen, Turbidite als Ergebnis von Hangrutschungen und Turbidite als Ergebnis von Flutereignissen. Die ersten beiden Lagentypen wurden vermutlich durch Erdbeben ausgelöst. Die große Mehrheit der Ereignislagen ist jedoch auf Flutereignisse zurückzuführen (362 von 369). Dies erlaubte die Rekonstruktion der Hochwasserhäufigkeit für die letzten 40 ka. Dabei zeigten sich starke Schwankungen über den analysierten Zeitraum. Die höchsten Werte wurden während des glazialen Meeresspiegelminimums erreicht während die niedrigsten Werte im Zusammenhang mit Heinrich Ereignis 1 auftraten, was vermutlich in erster Linie mit der Taifunhäufigkeit in der Region zusammenhängt. Allerdings zeigten die Daten auch Einflüsse von lokalen, nicht Klima getriebenen Prozessen. Zusammenfassend kann gesagt werden, dass die hier vorliegende Arbeit die Kenntnisse über die Sedimente des Suigetsu Sees deutlich erweitert hat und die Revidierung einiger älterer Interpretationen nahe legt. Die verbesserte Warvenchronologie trug zu einem deutlich verbesserten Kalibrationsdatensatz bei. Dieser ist der erste aus lakustrinen Daten gewonnen Datensatz, der in den (kommenden) IntCal Datensatz eingearbeitet werden wird. Quellennachweis: Kitagawa & van der Plicht, 2000, Radiocarbon, Vol 42(3), 370-381 Reimer et al., 2009, Radiocarbon, Vol 51(4), 1111-1150 KW - Suigetsu KW - radiocarbon KW - floods Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69096 ER - TY - THES A1 - Gholamrezaie, Ershad T1 - Variations of lithospheric strength in different tectonic settings T1 - Unterschiede in der Festigkeit der Lithosphäre in verschiedenen tektonischen Umgebungen N2 - Rheology describes the flow of matter under the influence of stress, and - related to solids- it investigates how solids subjected to stresses deform. As the deformation of the Earth’s outer layers, the lithosphere and the crust, is a major focus of rheological studies, rheology in the geosciences describes how strain evolves in rocks of variable composition and temperature under tectonic stresses. It is here where deformation processes shape the form of ocean basins and mountain belts that ultimately result from the complex interplay between lithospheric plate motion and the susceptibility of rocks to the influence of plate-tectonic forces. A rigorous study of the strength of the lithosphere and deformation phenomena thus requires in-depth studies of the rheological characteristics of the involved materials and the temporal framework of deformation processes. This dissertation aims at analyzing the influence of the physical configuration of the lithosphere on the present-day thermal field and the overall rheological characteristics of the lithosphere to better understand variable expressions in the formation of passive continental margins and the behavior of strike-slip fault zones. The main methodological approach chosen is to estimate the present-day thermal field and the strength of the lithosphere by 3-D numerical modeling. The distribution of rock properties is provided by 3-D structural models, which are used as the basis for the thermal and rheological modeling. The structural models are based on geophysical and geological data integration, additionally constrained by 3-D density modeling. More specifically, to decipher the thermal and rheological characteristics of the lithosphere in both oceanic and continental domains, sedimentary basins in the Sea of Marmara (continental transform setting), the SW African passive margin (old oceanic crust), and the Norwegian passive margin (young oceanic crust) were selected for this study. The Sea of Marmara, in northwestern Turkey, is located where the dextral North Anatolian Fault zone (NAFZ) accommodates the westward escape of the Anatolian Plate toward the Aegean. Geophysical observations indicate that the crust is heterogeneous beneath the Marmara basin, but a detailed characterization of the lateral crustal heterogeneities is presented for the first time in this study. Here, I use different gravity datasets and the general non-uniqueness in potential field modeling, to propose three possible end-member scenarios of crustal configuration. The models suggest that pronounced gravitational anomalies in the basin originate from significant density heterogeneities within the crust. The rheological modeling reveals that associated variations in lithospheric strength control the mechanical segmentation of the NAFZ. Importantly, a strong crust that is mechanically coupled to the upper mantle spatially correlates with aseismic patches where the fault bends and changes its strike in response to the presence of high-density lower crustal bodies. Between the bends, mechanically weaker crustal domains that are decoupled from the mantle are characterized by creep. For the passive margins of SW Africa and Norway, two previously published 3-D conductive and lithospheric-scale thermal models were analyzed. These 3-D models differentiate various sedimentary, crustal, and mantle units and integrate different geophysical data, such as seismic observations and the gravity field. Here, the rheological modeling suggests that the present-day lithospheric strength across the oceanic domain is ultimately affected by the age and past thermal and tectonic processes as well as the depth of the thermal lithosphere-asthenosphere boundary, while the configuration of the crystalline crust dominantly controls the rheological behavior of the lithosphere beneath the continental domains of both passive margins. The thermal and rheological models show that the variations of lithospheric strength are fundamentally influenced by the temperature distribution within the lithosphere. Moreover, as the composition of the lithosphere significantly influences the present-day thermal field, it therefore also affects the rheological characteristics of the lithosphere. Overall my studies add to our understanding of regional tectonic deformation processes and the long-term behavior of sedimentary basins; they confirm other analyses that have pointed out that crustal heterogeneities in the continents result in diverse lithospheric thermal characteristics, which in turn results in higher complexity and variations of rheological behavior compared to oceanic domains with a thinner, more homogeneous crust. N2 - Die Rheologie ist die Wissenschaft, die sich mit dem Fließ- und Verformungsverhalten von Materie beschäftigt. Hierzu gehören neben Gasen und Flüssigkeiten vor allem auch Feststoffe, die einer Spannung ausgesetzt sind und einem daraus resultierenden Verformungsprozess unterliegen - entweder unter bruchhaften oder plastischen Bedingungen. In den Geowissenschaften umfasst die Rheologie die kombinierte Analyse tektonischer Spannungen und resultierender Deformationsphänomene in Gesteinen unter unterschiedlichen Temperatur- und Druckbedingungen sowie im Zusammenhang mit physikalischen Eigenschaften der Krusten- und Mantelgesteine. Die Verformung des lithosphärischen Mantels und der Kruste ist ein Schwerpunkt rheologischer Untersuchungen, denn in diesem Zusammenhang bilden sich Ozeanbecken und Gebirgsgürtel, die letztendlich aus dem komplexen Zusammenspiel der Bewegungen lithosphärischer Platten und der unterschiedlichen Deformierbarkeit von Krusten- und Mantelgesteinen unter dem Einfluss plattentektonischer Kräfte resultieren. Eine genaue Untersuchung der Festigkeit der Lithosphäre und der Deformationssphänomene erfordert daher eingehende Studien der rheologischen Eigenschaften der beteiligten Materialien. Vor diesem Hintergrund ist es das Ziel dieser Dissertation, die allgemeinen rheologischen Charakteristika der Lithosphäre in drei verschiedenen geodynamischen Bereichen zu analysieren, um unterschiedlich geprägte passive Kontinentalränder sowie das Verhalten von Transformstörungen innerhalb der Kontinente besser zu verstehen. Der wichtigste methodische Ansatz, der hierfür gewählt wurde, ist die numerische 3D-Modellierung, um eine Abschätzung des gegenwärtigen thermischen Feldes und der Festigkeit der Lithosphäre zu ermöglichen. Die räumliche Verteilung der Gesteinseigenschaften in Kruste und Mantel wird dabei durch 3-D-Strukturmodelle bereitgestellt, die als Grundlage für die thermische und rheologische Modellierung verwendet werden. Die Strukturmodelle basieren auf der Integration geophysikalischer und geologischer Daten, die zusätzlich durch eine 3D-Dichtemodellierung validiert werden. Um die thermischen und rheologischen Eigenschaften der Lithosphäre sowohl im ozeanischen als auch im kontinentalen Bereich zu entschlüsseln, wurden für diese Studie Sedimentbecken im Marmarameer im Bereich der kontinentalen Nordanatolischen Transformstörung sowie im Bereich der passiven Plattenränder von SW-Afrika (alte ozeanische Kruste) und vor Norwegen (junge ozeanische Kruste) ausgewählt. Das Marmarameer im Nordwesten der Türkei befindet sich in einer Region, wo die dextrale Nordanatolische Störung (NAFZ) die westwärts gerichtete Ausweichbewegung der Anatolischen Platte in Richtung Ägäis ermöglicht. Geophysikalische Beobachtungen deuten darauf hin, dass die kontinentale Kruste unter dem Marmara-Becken heterogen ist, allerdings stellt diese Arbeit zum ersten Mal eine detaillierte Charakterisierung dieser lateralen Krustenheterogenitäten vor. Hierzu verwende ich verschiedene Schweredaten und die Potenzialfeldmodellierung, um drei mögliche Szenarien zur Erklärung der Unterschiede im Charakter der Kruste vorzuschlagen. Die Modelle legen nahe, dass ausgeprägte Schwereanomalien im Becken von signifikanten Dichte-Heterogenitäten innerhalb der Kruste hervorgerufen werden. Die rheologische Modellierung zeigt, dass damit verbundene Unterschiede in der Festigkeit der Lithosphäre die mechanische Segmentierung der NAFZ steuern und sich auf seismogene Prozesse auswirken. Demnach korrelieren Krustenbereiche hoher Festigkeit, die mechanisch an den oberen Mantel gekoppelt sind, räumlich mit aseismischen Sektoren in der Region um die Störungszone, in denen sich das Streichen der NAFZ ändert. Zwischen den Bereichen mit den veränderten Streichrichtungen der Störung existieren dagegen mechanisch schwächere Krustenbereiche, die vom Mantel entkoppelt und durch Kriechbewegungen gekennzeichnet sind. Für die passiven Kontinentalränder von SW-Afrika und Norwegen wurden zwei veröffentlichte thermische 3-D-Modelle hinsichtlich des Einflusses der Temperaturverteilung auf die Festigkeit der Lithosphäre analysiert. Diese 3-D-Modelle differenzieren verschiedene Sediment-, Krusten- und Mantelbereiche und integrieren unterschiedliche geophysikalische Daten, wie zum Beispiel seismische Beobachtungen und Schwerefeldmessungen. Hier legt die rheologische Modellierung nahe, dass die derzeitige Lithosphärenfestigkeit im ozeanischen Bereich letztlich durch das Alter und vergangene thermische und tektonische Prozesse sowie die Tiefe der thermischen Grenze zwischen Lithosphäre und Asthenosphäre beeinflusst wird, während die Konfiguration der kristallinen Kruste das rheologische Verhalten der Lithosphäre in den kontinentalen Bereichen der beiden passiven Ränder dominiert. Die thermischen und rheologischen Modelle zeigen, dass die Variationen in der Festigkeit der Lithosphäre grundlegend von der Temperaturverteilung innerhalb der Lithosphäre selbst beeinflusst werden. Dabei steuert die Zusammensetzung der Lithosphäre das heutige thermische Feld entscheidend mit und darüber auch die rheologischen Eigenschaften der Lithosphäre. Diese Ergebnisse tragen somit zu einem besseren Verständnis regionaler tektonischer Deformationsprozesse und der dynamischen Langzeitentwicklung von Sedimentbecken bei; sie bestätigen außerdem frühere Analysen, die bereits darauf hingewiesen haben, dass die Heterogenität der Kruste in den Kontinenten mit unterschiedlichen thermischen Eigenschaften der Lithosphäre einhergeht, welches wiederum zu einer höheren Komplexität und Variabilität des rheologischen Verhaltens im Vergleich zu ozeanischen Gebieten mit einer geringer mächtigen, homogeneren Kruste führt. KW - Lithospheric strength KW - Thermal modeling KW - Rheological modeling KW - North Anatolian Fault Zone KW - Sea of Marmara KW - Passive margins KW - Lithosphärenfestigkeit KW - Nordanatolische Störungszone KW - Marmarameer KW - Passive Kontinentalränder KW - Thermische Modellierung KW - Rheologische Modellierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-511467 ER - TY - THES A1 - Czech, Andreas T1 - Variations in the tRNA pool of mammalian cells upon differentiation and oxidative stress Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Hanisch, Florian T1 - Variational problems on supermanifolds T1 - Variationsprobleme auf Supermannigfaltigkeiten N2 - In this thesis, we discuss the formulation of variational problems on supermanifolds. Supermanifolds incorporate bosonic as well as fermionic degrees of freedom. Fermionic fields take values in the odd part of an appropriate Grassmann algebra and are thus showing an anticommutative behaviour. However, a systematic treatment of these Grassmann parameters requires a description of spaces as functors, e.g. from the category of Grassmann algberas into the category of sets (or topological spaces, manifolds). After an introduction to the general ideas of this approach, we use it to give a description of the resulting supermanifolds of fields/maps. We show that each map is uniquely characterized by a family of differential operators of appropriate order. Moreover, we demonstrate that each of this maps is uniquely characterized by its component fields, i.e. by the coefficients in a Taylor expansion w.r.t. the odd coordinates. In general, the component fields are only locally defined. We present a way how to circumvent this limitation. In fact, by enlarging the supermanifold in question, we show that it is possible to work with globally defined components. We eventually use this formalism to study variational problems. More precisely, we study a super version of the geodesic and a generalization of harmonic maps to supermanifolds. Equations of motion are derived from an energy functional and we show how to decompose them into components. Finally, in special cases, we can prove the existence of critical points by reducing the problem to equations from ordinary geometric analysis. After solving these component equations, it is possible to show that their solutions give rise to critical points in the functor spaces of fields. N2 - In dieser Dissertation wird die Formulierung von Variationsproblemen auf Supermannigfaltigkeiten diskutiert. Supermannigfaltigkeiten enthalten sowohl bosonische als auch fermionische Freiheitsgrade. Fermionische Felder nehmen Werte im ungeraden Teil einer Grassmannalgebra an, sie antikommutieren deshalb untereinander. Eine systematische Behandlung dieser Grassmann-Parameter erfordert jedoch die Beschreibung von Räumen durch Funktoren, z.B. von der Kategorie der Grassmannalgebren in diejenige der Mengen (der topologischen Räume, Mannigfaltigkeiten, ...). Nach einer Einführung in das allgemeine Konzept dieses Zugangs verwenden wir es um eine Beschreibung der resultierenden Supermannigfaltigkeit der Felder bzw. Abbildungen anzugeben. Wir zeigen, dass jede Abbildung eindeutig durch eine Familie von Differentialoperatoren geeigneter Ordnung charakterisiert wird. Darüber hinaus beweisen wir, dass jede solche Abbildung eineindeutig durch ihre Komponentenfelder, d.h. durch die Koeffizienten einer Taylorentwickelung bzgl. von ungeraden Koordinaten bestimmt ist. Im Allgemeinen sind Komponentenfelder nur lokal definiert. Wir stellen einen Weg vor, der diese Einschränkung umgeht: Durch das Vergrößern der betreffenden Supermannigfaltigkeit ist es immer möglich, mit globalen Koordinaten zu arbeiten. Schließlich wenden wir diesen Formalismus an, um Variationsprobleme zu untersuchen, genauer betrachten wir eine super-Version der Geodäte und eine Verallgemeinerung von harmonischen Abbildungen auf Supermannigfaltigkeiten. Bewegungsgleichungen werden von Energiefunktionalen abgeleitet und wir zeigen, wie sie sich in Komponenten zerlegen lassen. Schließlich kann in Spezialfällen die Existenz von kritischen Punkten gezeigt werden, indem das Problem auf Gleichungen der gewöhnlichen geometrischen Analysis reduziert wird. Es kann dann gezeigt werden, dass die Lösungen dieser Gleichungen sich zu kritischen Punkten im betreffenden Funktor-Raum der Felder zusammensetzt. KW - Supergeometrie KW - Variationsrechnung KW - Differentialoperatoren KW - Funktorgeometrie KW - supergeometry KW - variational calculus KW - differential operators KW - functor geometry Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59757 ER - TY - THES A1 - Lindinger, Jakob T1 - Variational inference for composite Gaussian process models T1 - Variationelle Inferenz für zusammengesetzte Gauß-Prozess Modelle N2 - Most machine learning methods provide only point estimates when being queried to predict on new data. This is problematic when the data is corrupted by noise, e.g. from imperfect measurements, or when the queried data point is very different to the data that the machine learning model has been trained with. Probabilistic modelling in machine learning naturally equips predictions with corresponding uncertainty estimates which allows a practitioner to incorporate information about measurement noise into the modelling process and to know when not to trust the predictions. A well-understood, flexible probabilistic framework is provided by Gaussian processes that are ideal as building blocks of probabilistic models. They lend themself naturally to the problem of regression, i.e., being given a set of inputs and corresponding observations and then predicting likely observations for new unseen inputs, and can also be adapted to many more machine learning tasks. However, exactly inferring the optimal parameters of such a Gaussian process model (in a computationally tractable manner) is only possible for regression tasks in small data regimes. Otherwise, approximate inference methods are needed, the most prominent of which is variational inference. In this dissertation we study models that are composed of Gaussian processes embedded in other models in order to make those more flexible and/or probabilistic. The first example are deep Gaussian processes which can be thought of as a small network of Gaussian processes and which can be employed for flexible regression. The second model class that we study are Gaussian process state-space models. These can be used for time-series modelling, i.e., the task of being given a stream of data ordered by time and then predicting future observations. For both model classes the state-of-the-art approaches offer a trade-off between expressive models and computational properties (e.g. speed or convergence properties) and mostly employ variational inference. Our goal is to improve inference in both models by first getting a deep understanding of the existing methods and then, based on this, to design better inference methods. We achieve this by either exploring the existing trade-offs or by providing general improvements applicable to multiple methods. We first provide an extensive background, introducing Gaussian processes and their sparse (approximate and efficient) variants. We continue with a description of the models under consideration in this thesis, deep Gaussian processes and Gaussian process state-space models, including detailed derivations and a theoretical comparison of existing methods. Then we start analysing deep Gaussian processes more closely: Trading off the properties (good optimisation versus expressivity) of state-of-the-art methods in this field, we propose a new variational inference based approach. We then demonstrate experimentally that our new algorithm leads to better calibrated uncertainty estimates than existing methods. Next, we turn our attention to Gaussian process state-space models, where we closely analyse the theoretical properties of existing methods.The understanding gained in this process leads us to propose a new inference scheme for general Gaussian process state-space models that incorporates effects on multiple time scales. This method is more efficient than previous approaches for long timeseries and outperforms its comparison partners on data sets in which effects on multiple time scales (fast and slowly varying dynamics) are present. Finally, we propose a new inference approach for Gaussian process state-space models that trades off the properties of state-of-the-art methods in this field. By combining variational inference with another approximate inference method, the Laplace approximation, we design an efficient algorithm that outperforms its comparison partners since it achieves better calibrated uncertainties. N2 - Bei Vorhersagen auf bisher ungesehenen Datenpunkten liefern die meisten maschinellen Lernmethoden lediglich Punktprognosen. Dies kann problematisch sein, wenn die Daten durch Rauschen verfälscht sind, z. B. durch unvollkommene Messungen, oder wenn der abgefragte Datenpunkt sich stark von den Daten unterscheidet, mit denen das maschinelle Lernmodell trainiert wurde. Mithilfe probabilistischer Modellierung (einem Teilgebiet des maschinellen Lernens) werden die Vorhersagen der Methoden auf natürliche Weise durch Unsicherheiten ergänzt. Dies erlaubt es, Informationen über Messunsicherheiten in den Modellierungsprozess mit einfließen zu lassen, sowie abzuschätzen, bei welchen Vorhersagen dem Modell vertraut werden kann. Grundlage vieler probabilistischer Modelle bilden Gaußprozesse, die gründlich erforscht und äußerst flexibel sind und daher häufig als Bausteine für größere Modelle dienen. Für Regressionsprobleme, was heißt, von einem Datensatz bestehend aus Eingangsgrößen und zugehörigen Messungen auf wahrscheinliche Messwerte für bisher ungesehene Eingangsgrößen zu schließen, sind Gaußprozesse hervorragend geeignet. Zusätzlich können sie an viele weitere Aufgabenstellungen des maschinellen Lernens angepasst werden. Die Bestimmung der optimalen Parameter eines solchen Gaußprozessmodells (in einer annehmbaren Zeit) ist jedoch nur für Regression auf kleinen Datensätzen möglich. In allen anderen Fällen muss auf approximative Inferenzmethoden zurückgegriffen werden, wobei variationelle Inferenz die bekannteste ist. In dieser Dissertation untersuchen wir Modelle, die Gaußprozesse eingebettet in andere Modelle enthalten, um Letztere flexibler und/oder probabilistisch zu machen. Das erste Beispiel hierbei sind tiefe Gaußprozesse, die man sich als kleines Netzwerk von Gaußprozessen vorstellen kann und die für flexible Regression eingesetzt werden können. Die zweite Modellklasse, die wir genauer analysieren ist die der Gaußprozess-Zustandsraummodelle. Diese können zur Zeitreihenmodellierung verwendet werden, das heißt, um zukünftige Datenpunkte auf Basis eines nach der Zeit geordneten Eingangsdatensatzes vorherzusagen. Für beide genannten Modellklassen bieten die modernsten Ansatze einen Kompromiss zwischen expressiven Modellen und wunschenswerten rechentechnischen Eigenschaften (z. B. Geschwindigkeit oder Konvergenzeigenschaften). Desweiteren wird für die meisten Methoden variationelle Inferenz verwendet. Unser Ziel ist es, die Inferenz für beide Modellklassen zu verbessern, indem wir zunächst ein tieferes Verständnis der bestehenden Ansätze erlangen und darauf aufbauend bessere Inferenzverfahren entwickeln. Indem wir die bestehenden Kompromisse der heutigen Methoden genauer untersuchen, oder dadurch, dass wir generelle Verbesserungen anbieten, die sich auf mehrere Modelle anwenden lassen, erreichen wir dieses Ziel. Wir beginnen die Thesis mit einer umfassender Einführung, die den notwendigen technischen Hintergrund zu Gaußprozessen sowie spärlichen (approximativen und effizienten) Gaußprozessen enthält. Anschließend werden die in dieser Thesis behandelten Modellklassen, tiefe Gaußprozesse und Gaußprozess-Zustandsraummodelle, eingeführt, einschließlich detaillierter Herleitungen und eines theoretischen Vergleichs existierender Methoden. Darauf aufbauend untersuchen wir zuerst tiefe Gaußprozesse genauer und entwickeln dann eine neue Inferenzmethode. Diese basiert darauf, die wünschenswerten Eigenschaften (gute Optimierungseigenschaften gegenüber Expressivität) der modernsten Ansätze gegeneinander abzuwägen. Anschließend zeigen wir experimentell, dass unser neuer Algorithmus zu besser kalibrierten Unsicherheitsabschätzungen als bei bestehenden Methoden führt. Als Nächstes wenden wir uns Gaußprozess-Zustandsraummodelle zu, wo wir zuerst die theoretischen Eigenschaften existierender Ansätze genau analysieren. Wir nutzen das dabei gewonnene Verständnis, um ein neues Inferenzverfahren für Gaußprozess-Zustandsraummodelle einzuführen, welches Effekte auf verschiedenen Zeitskalen berücksichtigt. Für lange Zeitreihen ist diese Methode effizienter als bisherige Ansätze. Darüber hinaus übertrifft sie ihre Vergleichspartner auf Datensätzen, bei denen Effekte auf mehreren Zeitskalen (sich schnell und langsam verändernde Signale) auftreten. Zuletzt schlagen wir ein weiteres neues Inferenzverfahren für Gaußprozess-Zustandsraummodelle vor, das die Eigenschaften der aktuellsten Methoden auf diesem Gebiet gegeneinander abwägt. Indem wir variationelle Inferenz mit einem weiteren approximativen Inferenzverfahren, der Laplace- Approximation, kombinieren, entwerfen wir einen effizienten Algorithmus der seine Vergleichspartner dadurch übertrifft, dass er besser kalibrierte Unsicherheitsvorhersagen erzielt. KW - probabilistic machine learning KW - Gaussian processes KW - variational inference KW - deep Gaussian processes KW - Gaussian process state-space models KW - Gauß-Prozess Zustandsraummodelle KW - Gauß-Prozesse KW - tiefe Gauß-Prozesse KW - probabilistisches maschinelles Lernen KW - variationelle Inferenz Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-604441 ER - TY - THES A1 - Aktas, Berfin T1 - Variation in coreference patterns BT - analyses across language modes and genres N2 - This thesis explores the variation in coreference patterns across language modes (i.e., spoken and written) and text genres. The significance of research on variation in language use has been emphasized in a number of linguistic studies. For instance, Biber and Conrad [2009] state that “register/genre variation is a fundamental aspect of human language” and “Given the ubiquity of register/genre variation, an understanding of how linguistic features are used in patterned ways across text varieties is of central importance for both the description of particular languages and the development of cross-linguistic theories of language use.”[p.23] We examine the variation across genres with the primary goal of contributing to the body of knowledge on the description of language use in English. On the computational side, we believe that incorporating linguistic knowledge into learning-based systems can boost the performance of automatic natural language processing systems, particularly for non-standard texts. Therefore, in addition to their descriptive value, the linguistic findings we provide in this study may prove to be helpful for improving the performance of automatic coreference resolution, which is essential for a good text understanding and beneficial for several downstream NLP applications, including machine translation and text summarization. In particular, we study a genre of texts that is formed of conversational interactions on the well-known social media platform Twitter. Two factors motivate us: First, Twitter conversations are realized in written form but resemble spoken communication [Scheffler, 2017], and therefore they form an atypical genre for the written mode. Second, while Twitter texts are a complicated genre for automatic coreference resolution, due to their widespread use in the digital sphere, at the same time they are highly relevant for applications that seek to extract information or sentiments from users’ messages. Thus, we are interested in discovering more about the linguistic and computational aspects of coreference in Twitter conversations. We first created a corpus of such conversations for this purpose and annotated it for coreference. We are interested in not only the coreference patterns but the overall discourse behavior of Twitter conversations. To address this, in addition to the coreference relations, we also annotated the coherence relations on the corpus we compiled. The corpus is available online in a newly developed form that allows for separating the tweets from their annotations. This study consists of three empirical analyses where we independently apply corpus-based, psycholinguistic and computational approaches for the investigation of variation in coreference patterns in a complementary manner. (1) We first make a descriptive analysis of variation across genres through a corpus-based study. We investigate the linguistic aspects of nominal coreference in Twitter conversations and we determine how this genre relates to other text genres in spoken and written modes. In addition to the variation across genres, studying the differences in spoken-written modes is also in focus of linguistic research since from Woolbert [1922]. (2) In order to investigate whether the language mode alone has any effect on coreference patterns, we carry out a crowdsourced experiment and analyze the patterns in the same genre for both spoken and written modes. (3) Finally, we explore the potentials of domain adaptation of automatic coreference resolution (ACR) for the conversational Twitter data. In order to answer the question of how the genre of Twitter conversations relates to other genres in spoken and written modes with respect to coreference patterns, we employ a state-of-the-art neural ACR model [Lee et al., 2018] to examine whether ACR on Twitter conversations will benefit from mode-based separation in out-of-domain training data. N2 - In dieser Dissertation wird die Variation von Koreferenzmustern in verschiedenen Sprachmodi (d. h., gesprochen und geschrieben) und Textgenres untersucht. Die Relevanz der Erforschung von Variation im Sprachgebrauch wurde in einer ganzen Reihe von linguistischen Studien betont. Zum Beispiel stellen Biber und Conrad [2009] fest: "register/genre variation is a fundamental aspect of human language" und "Given the ubiquity of register/genre variation, an understanding of how linguistic features are used in patterned ways across text varieties is of central importance for both the description of particular languages and the development of cross-linguistic theories of language use."[S.23] Wir untersuchen die Variation zwischen Genres mit dem primären Ziel, einen Beitrag zum Wissensstand zur Beschreibung des Sprachgebrauchs im Englischen zu leisten. Auf der technischen Seite glauben wir, dass das Einbeziehen von linguistischem Wissen in machine learning Ansätzen die Leistung von sprachverarbeitenden Systemen verbessern kann, insbesondere für Texte in nicht-Standard Varietäten. Neben ihrem sprachbeschreibenden Wert können die linguistischen Erkenntnisse, die wir in dieser Studie liefern, sich also als nützlich für die Verbesserung von Systemen für automatische Koreferenzauflösung erweisen; diese ist für ein tiefgreifendes Textverständnis unerlässlich, und potenziell hilfreich für verschiedene nachgelagerte NLP-Applikationen wie etwa die maschinelle Übersetzung und die Textzusammenfassung. Insbesondere untersuchen wir ein Textgenre, das aus Konversationsinteraktionen auf der bekannten Social-Media-Plattform Twitter gebildet wird. Zwei Faktoren motivieren uns dazu: Erstens werden Twitter-Konversationen in schriftlicher Form realisiert, ähneln dabei aber der gesprochenen Kommunikation [Scheffler, 2017] und bilden daher ein für den schriftlichen Modus untypisches Genre. Zweitens sind Twitter-Texte zwar ein kompliziertes Genre für die automatische Auflösung von Koreferenzen, aufgrund ihrer weiten Verbreitung in der digitalen Sphäre sind sie aber für Applikationen, die Informationen oder Stimmungen aus den Nachrichten der Nutzer extrahieren wollen, höchst relevant. Daher sind wir daran interessiert, mehr über die linguistischen und komputationellen Aspekte der Koreferenz in Twitter-Konversationen herauszufinden. Zu diesem Zweck haben wir zunächst ein Korpus solcher Unterhaltungen erstellt und es hinsichtlich der Koreferenzbeziehungen annotiert. Wir interessieren uns dabei aber nicht nur für die Koreferenzmuster, sondern auch allgemein für diskursstrukturelle Eigenschaften von Twitter-Konversationen. Daher haben wir zusätzlich zu den Koreferenzrelationen auch die semantisch/pragmatischen Kohärenzrelationen in dem von uns erstellten Korpus annotiert. Das Korpus ist online in einer neu entwickelten Form verfügbar, die es erlaubt, die Tweets von ihren Annotationen getrennt zu repräsentieren. Diese Studie besteht aus drei empirischen Analysen, in denen wir unabhängig voneinander korpusbasierte, psycholinguistische und computerlinguistische Ansätze zur komplementären Untersuchung der Variation von Koreferenzmustern anwenden. (1) Zunächst führen wir eine deskriptive Analyse der Variation zwischen den Genres anhand einer korpusbasierten Studie durch. Wir untersuchen linguistische Aspekte der nominalen Koreferenz in Twitter-Konversationen und stellen fest, wie sich dieses Genre zu anderen Textgenres im gesprochenen und schriftlichen Modus verhält. Neben der Variation zwischen Genres steht auch die Untersuchung der Unterschiede zwischen mündlichen und schriftlichen Formen im Fokus der linguistischen Forschung beginnend mit Woolbert [1922]. (2) Um zu untersuchen, ob der Sprachmodus auch allein einen Einfluss auf die Koreferenzmuster ausübt, führen wir ein Crowdsourcing-Experiment durch und analysieren die Muster, die sich innerhalb desselben Genres für den gesprochenen und den geschriebenen Modus ergeben. (3) Schließlich untersuchen wir Möglichkeiten der Domain-Anpassung der automatischen Koreferenzauflösung für die Twitter-Konversationsdaten. Um die Frage zu beantworten, wie sich das Genre der Twitter-Konversationen zu anderen Genres im gesprochenen und geschriebenen Modus im Hinblick auf die Koreferenzmuster verhält, verwenden wir ein neuronales Koreferenzresolutionsmodell auf dem aktuellen Stand der Technik [Lee et al., 2018], um zu untersuchen, ob die Resolution auf Twitter-Konversationen von einer modusbasierten Trennung der Trainingsdaten aus externen Domänen profitiert. KW - coreference KW - variation KW - spoken KW - written KW - genre KW - Koreferenzmustern KW - Variation KW - gesprochen KW - geschrieben KW - Textgenre Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-596086 ER - TY - THES A1 - Beinrucker, Andre T1 - Variable selection in high dimensional data analysis with applications Y1 - 2015 ER - TY - THES A1 - Pregla, Dorothea T1 - Variability in sentence processing performance in German people with aphasia and unimpaired German native speakers T1 - Variabilität in der Satzverarbeitungsleistung von deutschsprachigen Personen mit und ohne Aphasie N2 - Individuals with aphasia vary in the speed and accuracy they perform sentence comprehension tasks. Previous results indicate that the performance patterns of individuals with aphasia vary between tasks (e.g., Caplan, DeDe, & Michaud, 2006; Caplan, Michaud, & Hufford, 2013a). Similarly, it has been found that the comprehension performance of individuals with aphasia varies between homogeneous test sentences within and between sessions (e.g., McNeil, Hageman, & Matthews, 2005). These studies ascribed the variability in the performance of individuals with aphasia to random noise. This conclusion would be in line with an influential theory on sentence comprehension in aphasia, the resource reduction hypothesis (Caplan, 2012). However, previous studies did not directly compare variability in language-impaired and language-unimpaired adults. Thus, it is still unclear how the variability in sentence comprehension differs between individuals with and without aphasia. Furthermore, the previous studies were exclusively carried out in English. Therefore, the findings on variability in sentence processing in English still need to be replicated in a different language. This dissertation aims to give a systematic overview of the patterns of variability in sentence comprehension performance in aphasia in German and, based on this overview, to put the resource reduction hypothesis to the test. In order to reach the first aim, variability was considered on three different dimensions (persons, measures, and occasions) following the classification by Hultsch, Strauss, Hunter, and MacDonald (2011). At the dimension of persons, the thesis compared the performance of individuals with aphasia and language-unimpaired adults. At the dimension of measures, this work explored the performance across different sentence comprehension tasks (object manipulation, sentence-picture matching). Finally, at the dimension of occasions, this work compared the performance in each task between two test sessions. Several methods were combined to study variability to gain a large and diverse database. In addition to the offline comprehension tasks, the self-paced-listening paradigm and the visual world eye-tracking paradigm were used in this work. The findings are in line with the previous results. As in the previous studies, variability in sentence comprehension in individuals with aphasia emerged between test sessions and between tasks. Additionally, it was possible to characterize the variability further using hierarchical Bayesian models. For individuals with aphasia, it was shown that both between-task and between-session variability are unsystematic. In contrast to that, language-unimpaired individuals exhibited systematic differences between measures and between sessions. However, these systematic differences occurred only in the offline tasks. Hence, variability in sentence comprehension differed between language-impaired and language-unimpaired adults, and this difference could be narrowed down to the offline measures. Based on this overview of the patterns of variability, the resource reduction hypothesis was evaluated. According to the hypothesis, the variability in the performance of individuals with aphasia can be ascribed to random fluctuations in the resources available for sentence processing. Given that the performance of the individuals with aphasia varied unsystematically, the results support the resource reduction hypothesis. Furthermore, the thesis proposes that the differences in variability between language-impaired and language-unimpaired adults can also be explained by the resource reduction hypothesis. More specifically, it is suggested that the systematic changes in the performance of language-unimpaired adults are due to decreasing fluctuations in available processing resources. In parallel, the unsystematic variability in the performance of individuals with aphasia could be due to constant fluctuations in available processing resources. In conclusion, the systematic investigation of variability contributes to a better understanding of language processing in aphasia and thus enriches aphasia research. N2 - Personen mit Aphasie unterscheiden sich in der Geschwindigkeit und Genauigkeit, mit der sie Satzverständnisaufgaben lösen. Ergebnisse früherer Studien weisen darauf hin, dass die Leistungsmuster von Personen mit Aphasie zwischen verschiedenen Aufgaben variieren (z.B. Caplan, DeDe & Michaud, 2006; Caplan, Michaud & Hufford, 2013a). In ähnlicher Weise wurde festgestellt, dass die Verständnisleistung von Personen mit Aphasie zwischen ähnlich komplexen Testsätzen innerhalb und zwischen Sitzungen variiert (z.B. McNeil, Hageman & Matthews, 2005). In diesen Studien wurde die Variabilität in der Leistung von Personen mit Aphasie auf bloßen Zufall durch Rauschen in den Daten zurückgeführt. Diese Schlussfolgerung steht im Einklang mit einer einflussreichen Theorie zum Satzverständnis bei Aphasie, der resource reduction hypothesis (Caplan, 2012). In früheren Studien wurde die Variabilität bei Personen mit und ohne Aphasie jedoch nicht direkt verglichen. Daher ist noch unklar, wie sich die Variabilität im Satzverständnis zwischen Personen mit und ohne Aphasie unterscheidet. Außerdem wurden die bisherigen Studien ausschließlich im Englischen durchgeführt. Eine Replikation der Ergebnisse in einer anderen Sprache steht bisher noch aus. Ziel dieser Arbeit ist es, einen systematischen Überblick über die Variabilitätsmuster in der Satzverständnisleistung bei Aphasie im Deutschen zu geben und darauf aufbauend die resource reduction hypothesis zu überprüfen. Für das erste Ziel wurde die Variabilität in Anlehnung an die Klassifikation von Hultsch, Strauss, Hunter und MacDonald (2011) auf drei verschiedenen Ebenen (Personen, Maße und Messzeitpunkte) untersucht. Auf der Ebene der Personen wurden die Leistungen von Personen mit und ohne Aphasie miteinander verglichen. Auf der Ebene der Maße wurde die Leistung beider Versuchspersonengruppen über verschiedene Satzverständninsaufgaben hinweg untersucht (Objektmanipulierung, Satz-Bild-Zuordnung). Auf der Ebene der Messzeitpunkte wurden die Leistungen in jeder Aufgabe zwischen zwei Testsitzungen verglichen. Um eine große und vielfältige Datenbasis zu erhalten, wurden mehrere Methoden zur Untersuchung der Variabilität kombiniert. So wurden zusätzlich zu den Offline-Verständnisaufgaben in dieser Arbeit self-paced-listening (selbstgesteuertes Hören) und visual world eye-tracking (Blickbewegungsmessung beim Betrachten von Bildern) verwendet. Die Ergebnisse stimmen mit den bisherigen Befunden überein. Wie in den vorangegangenen Studien trat Variabilität im Satzverständnis bei Personen mit Aphasie zwischen den Testsitzungen und zwischen den Aufgaben auf. Darüber hinaus wurde die Variabilität mittels hierarchischer Bayesianischer Modelle weiter charakterisiert. Für Personen mit Aphasie war sowohl die Variabilität zwischen den Aufgaben als auch zwischen den Sitzungen unsystematisch. Im Gegensatz dazu zeigten sich bei Personen ohne Aphasie systematische Unterschiede zwischen den Aufgaben und zwischen den Sitzungen. Diese systematischen Unterschiede traten jedoch nur bei den Offline-Verständnisaufgaben auf. Die Variabilität im Satzverständnis unterscheidet sich also zwischen Personen mit und ohne Aphasie in der Offline-Verständnisleistung. Auf der Grundlage dieses Überblicks über die Variabilitätsmuster wurde die resource reduction hypothesis evaluiert. Laut dieser Hypothese kann die Variabilität in der Leistung von Personen mit Aphasie auf zufällige Schwankungen in den verfügbaren Satzverarbeitungsressourcen zurückgeführt werden. Da die Leistung der Personen mit Aphasie unsystematisch variiert, stimmen die Ergebnisse mit der resource reduction hypothesis überein. Zusätzlich lassen sich auch die Unterschiede in der Variabilität zwischen Personen mit und ohne Aphasie durch die resource reduction hypothesis erklären. Die systematischen Veränderungen im Satzverständnis bei Personen ohne Aphasie werden auf eine Abnahme der Fluktuationen in den Verarbeitungsressourcen zurückgeführt. Parallel dazu könnte die unsystematische Variabilität in der Leistung von Personen mit Aphasie auf konstante Schwankungen der verfügbaren Verarbeitungsressourcen zurückgeführt werden. Zusammenfassend lässt sich sagen, dass die systematische Untersuchung der Variabilität zu einem besseren Verständnis der Sprachverarbeitung bei Aphasie beiträgt und somit die Aphasieforschung bereichert. KW - aphasia KW - sentence comprehension KW - variability KW - resource reduction KW - Aphasie KW - Satzverständnis KW - Variabilität KW - Reduzierte Ressourcen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-614201 ER - TY - THES A1 - Schleussner, Carl-Friedrich T1 - Variability and trend of the North Atlantic ocean circulation in past and future climate Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Hofmann, Nadi T1 - Value education of youth N2 - Am Anfang und am Ende des Schuljahres 2000/2001 wurden die Werteprioritäten der Schüler/innen und Lehrer/innen an acht verschiedenen Schulen gemessen. Mit dieser Studie wurde das theoretische Modell einer universellen Struktur menschlicher Werteprioritäten (Schwartz, 1992) erneut bestätigt. Zu beiden Messzeitpunkten ergaben sich gleiche Geschlechtseffekte wie auch ähnlich hohe positive Zusammenhänge zwischen Religiosität und Schulbindung. Die Schüler/innen der nicht-religiösen Schulen gaben Hedonism als höchsten, und Tradition als niedrigsten Wert an. In den religiösen Schulen waren Benevolence und Self-Direction die meist geschätzten Werte, während Power die niedrigste Priorität besaß. Die Veränderung der Werte Conformity, Hedonism und Universalism ließ sich sowohl durch die Religiosität der Schüler/innen wie auch durch deren Schulzugehörigkeit vorhersagen. Die Veränderung von Power, Tradition, Benevolence und Achievement hingegen wurde primär durch Religiosität vorhergesagt. In drei der vier Schulen korrelierte die Ähnlichkeit der Schüler und Lehrer positiv mit der Schulbindung der Schüler/innen. Die Schüler-Lehrer Ähnlichkeit korrelierte über alle Schulen positiv mit Schulleistung. N2 - The value priorities of students and teachers were measured at eight different schools at the beginning and the end of the school year 2000/2001. This study once again confirmed the theoretical model of a universal structure of human values (Schwartz, 1992). At both measurement times, similar gender differences, as well as positive correlations between religiosity and school commitment were found. The students from the non-religious schools determined Hedonism as their highest, and Tradition as their lowest value priority. In the religious schools, Benevolence and Self-Direction were the highest values, whereas Power was found to be the lowest value priority. The change of the values Conformity, Hedonism, and Universalism was predicted both through the students′ religiosity and their type of school. The change of the values Power, Tradition, Benevolence, and Achievement, however, was mainly predicted through their religiosity. In three out of four schools the student-teacher similarity correlated positively with the school commitment of the students. Across all schools student-teacher similarity correlated positively with academic achievement. KW - Werte KW - Werteerziehung KW - Werteprioritäten KW - Schulen KW - Schüler KW - Lehrer KW - Schulbindung KW - Religiosität KW - MDS KW - Regressionsanalysen KW - values KW - value education KW - value priorities KW - schools KW - students KW - teachers KW - school commitment KW - religiosity KW - MDS KW - regression analysis Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000926 ER - TY - THES A1 - Stadion, Mandy T1 - Validation and Characterization of lfi202b and Zfp69, two Novel Disease Genes in Obesity-Associated Insulin Resistance Y1 - 2017 ER - TY - THES A1 - Kumru, Baris T1 - Utilization of graphitic carbon nitride in dispersed media T1 - Anwendung von graphitischem Kohlenstoffnitrid in dispergierten Medien N2 - Utilization of sunlight for energy harvesting has been foreseen as sustainable replacement for fossil fuels, which would also eliminate side effects arising from fossil fuel consumption such as drastic increase of CO2 in Earth atmosphere. Semiconductor materials can be implemented for energy harvesting, and design of ideal energy harvesting devices relies on effective semiconductor with low recombination rate, ease of processing, stability over long period, non-toxicity and synthesis from abundant sources. Aforementioned criteria have attracted broad interest for graphitic carbon nitride (g-CN) materials, metal-free semiconductor which can be synthesized from low cost and abundant precursors. Furthermore, physical properties such as band gap, surface area and absorption can be tuned. g-CN was investigated as heterogeneous catalyst, with diversified applications from water splitting to CO2 reduction and organic coupling reactions. However, low dispersibility of g-CN in water and organic solvents was an obstacle for future improvements. Tissue engineering aims to mimic natural tissues mechanically and biologically, so that synthetic materials can replace natural ones in future. Hydrogels are crosslinked networks with high water content, therefore are prime candidates for tissue engineering. However, the first requirement is synthesis of hydrogels with mechanical properties that are matching to natural tissues. Among different approaches for reinforcement, nanocomposite reinforcement is highly promising. This thesis aims to investigate aqueous and organic dispersions of g-CN materials. Aqueous g-CN dispersions were utilized for visible light induced hydrogel synthesis, where g-CN acts as reinforcer and photoinitiator. Varieties of methodologies were presented for enhancing g-CN dispersibility, from co-solvent method to prepolymer formation, and it was shown that hydrogels with diversified mechanical properties (from skin-like to cartilage-like) are accessible via g-CN utilization. One pot photografting method was introduced for functionalization of g-CN surface which provides functional groups towards enhanced dispersibility in aqueous and organic media. Grafting vinyl thiazole groups yields stable additive-free organodispersions of g-CN which are electrostatically stabilized with increased photophysical properties. Colloidal stability of organic systems provides transparent g-CN coatings and printing g-CN from commercial inkjet printers. Overall, application of g-CN in dispersed media is highly promising, and variety of materials can be accessible via utilization of g-CN and visible light with simple chemicals and synthetic conditions. g-CN in dispersed media will bridge emerging research areas from tissue engineering to energy harvesting in near future. N2 - Sonnenlicht kann fossile Brennstoffe in der Energieerzeugung ersetzen und ermöglicht neben der Nutzung einer nachhaltigen Ressource dabei auch die deutliche Reduktion der Umweltbelastung in der Energieerzeugung. Die Verfügbarkeit geeigneter Energiegewinnungstechnologien hängt entscheidend von der Verfügbarkeit geeigneter Superkondensatoren (SC) ab. Ideale SC sollten sich in diesem Zusammenhang durch eine geringe Rekombinationsrate, gute Verarbeitbarkeit, Langzeitstabilität, Ungiftigkeit und die Verfügbarkeit aus nachhaltigen Ressourcen auszeichnen. Graphitisches Kohlenstoffnitrid (graphitic carbon nitride – g-CN), ein metall-freier Halbleiter, der aus nachhaltigen und in großer Menge verfügbaren Ausgangsstoffen hergestellt werden kann, ist als Material für dieses Eigenschaftsprofil hervorragend geeignet. Darüber hinaus können die Eigenschaften dieses Materials (innere Oberfläche, Bandlücke, Lichtabsorption) eingestellt werden. Daraus ergibt sich ein großes Forschungsinteresse z.B. im Bereich heterogener Katalyse, wie in der Kohlenstoffdioxidreduktion, elektrolytischen Wasserspaltung und verschiedener organischer Kupplungsreaktionen. Unglücklicherweise ist die schlechte Dispergierbarkeit von g-CN in organischen Lösungsmitteln und Wasser ein wesentlicher Hinderungsgrund für die erfolgreiche Nutzbarmachung dieser hervorragenden Eigenschaften. Das Design von Materialien, die biologisches Gewebe in seinen mechanischen und biologischen Eigenschaften nachahmen und ersetzen können, ist das Ziel der Gewebekonstruktion (Tissue Engineering – TE). Hydrogele, also Netzwerke mit hohem Wassergehalt, gelten als die vielversprechendsten Materialen in diesem Forschungsfeld. Die Herstellung von Hydrogelen, die biologischem Gewebe in seinen mechanischen Eigenschaften ähnelt gilt allerdings als äußerst schwierig und erfordert die Stabilisierung der Netzwerke. Besonders der Einsatz von Nanoverbundstrukturen (nanocomposites) erscheint in diesem Zusammenhang vielversprechend. Die vorliegende Arbeit beschäftigt sich mit der Untersuchung von g-CN in sowohl wässrigen, als auch organischen Dispersionen. Im Zuge dessen werden wässrige Dispersionen für die Synthese von Hydrogelen, bei der g-CN sowohl als Photoinitiator für die durch sichtbares Licht ausgelöste Vernetzung, als auch als Strukturverstärker fungiert. Zur Verbesserung der Dispergierbarkeit des g CN werden vielseitige Ansätze präsentiert, welche von der Verwendung von Co-Lösungsmitteln bis zur Präpolymerbildung reichen. Durch die aufgezeigten Ansätze können Hydrogele mit unterschiedlichen mechanischen Eigenschaften hergestellt werden (hautartig bis knorpelig). Darüber hinaus wird eine Ein-Topf Synthese für die Oberflächenfunktionalisierung vorgestellt, durch die die Dispergierbarkeit von g-CN in organischen und wässrigen Medien verbessert werden kann. Beispielsweise erlaubt die Oberflächenfunktionalisierung mit Vinylthiazol die Herstellung von kolloidal dispergiertem g-CN mit verbesserten photophysikalischen Eigenschaften ohne zusätzliche Additive und eröffnet damit die Möglichkeit transparenter g-CN Beschichtungen und ermöglicht die Druckbarkeit von g-CN aus handelsüblichen Tintenstrahldruckern. Die Anwendung von g-CN in dispergierten Medien ist vielversprechend, da eine große Zahl sehr vielfältiger Materialien durch die Kombination von g-CN mit sichtbarem Licht aus günstigen, nachhaltigen Ressourcen verfügbar ist. Daher ist zu erwarten, dass g-CN in dispergierten Medien verschiedene im Entstehen begriffene Forschungsfelder von TE bis zur Energiegewinnung überspannen wird. KW - polymer chemistry KW - Polymerchemie KW - photochemistry KW - Photochemie KW - colloid chemistry KW - kolloidchemie KW - hydrogels KW - Hydrogelen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427339 ER - TY - THES A1 - Vu, Dinh Phuong T1 - Using video study to investigate eighth-grade mathematics classrooms in Vietnam T1 - Die Nutzung von Videostudien zur Untersuchung des Mathematikunterrichts in der 8. Klasse in Vietnam N2 - The International Project for the Evaluation of Educational Achievement (IEA) was formed in the 1950s (Postlethwaite, 1967). Since that time, the IEA has conducted many studies in the area of mathematics, such as the First International Mathematics Study (FIMS) in 1964, the Second International Mathematics Study (SIMS) in 1980-1982, and a series of studies beginning with the Third International Mathematics and Science Study (TIMSS) which has been conducted every 4 years since 1995. According to Stigler et al. (1999), in the FIMS and the SIMS, U.S. students achieved low scores in comparison with students in other countries (p. 1). The TIMSS 1995 “Videotape Classroom Study” was therefore a complement to the earlier studies conducted to learn “more about the instructional and cultural processes that are associated with achievement” (Stigler et al., 1999, p. 1). The TIMSS Videotape Classroom Study is known today as the TIMSS Video Study. From the findings of the TIMSS 1995 Video Study, Stigler and Hiebert (1999) likened teaching to “mountain ranges poking above the surface of the water,” whereby they implied that we might see the mountaintops, but we do not see the hidden parts underneath these mountain ranges (pp. 73-78). By watching the videotaped lessons from Germany, Japan, and the United States again and again, they discovered that “the systems of teaching within each country look similar from lesson to lesson. At least, there are certain recurring features [or patterns] that typify many of the lessons within a country and distinguish the lessons among countries” (pp. 77-78). They also discovered that “teaching is a cultural activity,” so the systems of teaching “must be understood in relation to the cultural beliefs and assumptions that surround them” (pp. 85, 88). From this viewpoint, one of the purposes of this dissertation was to study some cultural aspects of mathematics teaching and relate the results to mathematics teaching and learning in Vietnam. Another research purpose was to carry out a video study in Vietnam to find out the characteristics of Vietnamese mathematics teaching and compare these characteristics with those of other countries. In particular, this dissertation carried out the following research tasks: - Studying the characteristics of teaching and learning in different cultures and relating the results to mathematics teaching and learning in Vietnam - Introducing the TIMSS, the TIMSS Video Study and the advantages of using video study in investigating mathematics teaching and learning - Carrying out the video study in Vietnam to identify the image, scripts and patterns, and the lesson signature of eighth-grade mathematics teaching in Vietnam - Comparing some aspects of mathematics teaching in Vietnam and other countries and identifying the similarities and differences across countries - Studying the demands and challenges of innovating mathematics teaching methods in Vietnam – lessons from the video studies Hopefully, this dissertation will be a useful reference material for pre-service teachers at education universities to understand the nature of teaching and develop their teaching career. N2 - Das International Project for the Evaluation of Educational Achievement (IEA) wurde in den 1950er Jahren gegründet. Seitdem führte das IEA viele Studien in Bereich mathematischer Bildung durch, insbesondere die First International Mathematics Study (FIMS) im Jahre 1964, die Second International Mathematics Study (SIMS) in den Jahren 1980–1982 und eine Reihe von Studien, die mit der Third International Mathematics and Science Study (TIMSS) begann und seit 1995 alle vier Jahre durchgeführt wird. Nach Stigler et al. (1999) erreichten US-amerikanische Studenten bei FIMS und SIMS niedrigere Ergebnisse als Schüler anderer Länder (S. 1). Daher wurde TIMSS 1995 erweitert um eine ‘Videotape Classroom Study’ mit dem Ziel, „mehr über die unterrichtlichen und kulturellen Prozesse, die mit Leistung zusammenhängen“, zu erfahren (S. 1; Übersetzung vom engl. Original). Von den Ergebnissen der TIMMS 1995 Video Study ausgehend verglichen Stigler und Hiebert (1999) Unterricht mit „Gebirgszügen, die die Wasseroberfläche durchstoßen“, womit sie ausdrücken sollten, was die Bergspitzen sichtbar, große Teile des Gebirges aber unter dem Wasser verborgen sind (S. 73–78; Übersetzung vom engl. Original). Durch die wiederholte Analyse videographierter Unterrichtsstunden aus Deutschland, Japan und den USA entdeckten sie, dass „die Arten des Unterrichts innerhalb jedes Landes von Stunde zu Stunde ähnlich sind. Zumindest gibt es bestimmte wiederkehrende Aspekte [oder Skripte], welche für viele Stunden eines Landes typisch sind und die Stunden gegenüber anderen Ländern abgrenzen“ (S. 77f.). Sie entdeckten außerdem, dass Unterricht eine „kulturelle Aktivität“ ist, Unterrichtsarten also „verstanden werden müssen in Relation zu den kulturellen Überzeugungen und Annahmen, die sie umgeben“ (S. 85, 88). Hierauf aufbauend war es ein Ziel der Dissertation, kulturelle Aspekte des Mathematikunterricht zu untersuchen und die Ergebnisse mit Mathematikunterricht in Vietnam zu vergleichen. Ein weiteres Ziel war die Erhebung der Charakteristika vietnamesischen Mathematikunterricht durch eine Videostudie in Vietnam und der anschließende Vergleich dieser Charakteristika mit denen anderer Länder. Im Einzelnen befasste sich diese Dissertation mit den folgenden Forschungszielen: - Untersuchung der Charakteristika von Lehren und Lernen in unterschiedlichen Kulturen und vorläufiger Vergleich der Resultate mit dem Lehren und Lernen von Mathematik in Vietnam - Einführung der TIMSS und der TIMSS Video Study und der methodologischen Vorteile von Videostudien für die Untersuchung von Mathematikunterricht in Vietnam - Durchführung der Videostudie in Vietnam, um Unterrichtsskripte des Mathematikunterrichts in 8. Klassen in Vietnam zu identifizieren - Vergleich ausgewählter Aspekte des Mathematikunterrichts in Vietnam mit denen anderer Länder auf der Grundlage der Videostudie in Vietnam und Diskussion von Ähnlichkeiten und Unterschieden zwischen Ländern - Untersuchung der Herausforderungen für eine Innovation der Unterrichtsmethoden im Mathematikunterricht Vietnams Diese Dissertation entstand in der Hoffnung, dass sie eine nützliche Referenz für Lehramtsstudenten zum Verständnis der Natur des Unterrichts und zur Entwicklung der eigenen Lehrerpersönlichkeit darstellen möge. KW - Videostudie KW - Mathematikunterricht KW - Unterrichtsmethode KW - TIMSS KW - Kulturelle Aktivität KW - video study KW - mathematics education KW - teaching methods KW - TIMSS KW - Vietnam Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72464 ER - TY - THES A1 - Crisologo, Irene T1 - Using spaceborne radar platforms to enhance the homogeneity of weather radar calibration T1 - Homogenisierung der Kalibrierung von Niederschlagsradaren mit Hilfe satellitengestützter Radarplattformen N2 - Accurate weather observations are the keystone to many quantitative applications, such as precipitation monitoring and nowcasting, hydrological modelling and forecasting, climate studies, as well as understanding precipitation-driven natural hazards (i.e. floods, landslides, debris flow). Weather radars have been an increasingly popular tool since the 1940s to provide high spatial and temporal resolution precipitation data at the mesoscale, bridging the gap between synoptic and point scale observations. Yet, many institutions still struggle to tap the potential of the large archives of reflectivity, as there is still much to understand about factors that contribute to measurement errors, one of which is calibration. Calibration represents a substantial source of uncertainty in quantitative precipitation estimation (QPE). A miscalibration of a few dBZ can easily deteriorate the accuracy of precipitation estimates by an order of magnitude. Instances where rain cells carrying torrential rains are misidentified by the radar as moderate rain could mean the difference between a timely warning and a devastating flood. Since 2012, the Philippine Atmospheric, Geophysical, and Astronomical Services Administration (PAGASA) has been expanding the country’s ground radar network. We had a first look into the dataset from one of the longest running radars (the Subic radar) after devastating week-long torrential rains and thunderstorms in August 2012 caused by the annual southwestmonsoon and enhanced by the north-passing Typhoon Haikui. The analysis of the rainfall spatial distribution revealed the added value of radar-based QPE in comparison to interpolated rain gauge observations. However, when compared with local gauge measurements, severe miscalibration of the Subic radar was found. As a consequence, the radar-based QPE would have underestimated the rainfall amount by up to 60% if they had not been adjusted by rain gauge observations—a technique that is not only affected by other uncertainties, but which is also not feasible in other regions of the country with very sparse rain gauge coverage. Relative calibration techniques, or the assessment of bias from the reflectivity of two radars, has been steadily gaining popularity. Previous studies have demonstrated that reflectivity observations from the Tropical Rainfall Measuring Mission (TRMM) and its successor, the Global Precipitation Measurement (GPM), are accurate enough to serve as a calibration reference for ground radars over low-to-mid-latitudes (± 35 deg for TRMM; ± 65 deg for GPM). Comparing spaceborne radars (SR) and ground radars (GR) requires cautious consideration of differences in measurement geometry and instrument specifications, as well as temporal coincidence. For this purpose, we implement a 3-D volume matching method developed by Schwaller and Morris (2011) and extended by Warren et al. (2018) to 5 years worth of observations from the Subic radar. In this method, only the volumetric intersections of the SR and GR beams are considered. Calibration bias affects reflectivity observations homogeneously across the entire radar domain. Yet, other sources of systematic measurement errors are highly heterogeneous in space, and can either enhance or balance the bias introduced by miscalibration. In order to account for such heterogeneous errors, and thus isolate the calibration bias, we assign a quality index to each matching SR–GR volume, and thus compute the GR calibration bias as a qualityweighted average of reflectivity differences in any sample of matching SR–GR volumes. We exemplify the idea of quality-weighted averaging by using beam blockage fraction (BBF) as a quality variable. Quality-weighted averaging is able to increase the consistency of SR and GR observations by decreasing the standard deviation of the SR–GR differences, and thus increasing the precision of the bias estimates. To extend this framework further, the SR–GR quality-weighted bias estimation is applied to the neighboring Tagaytay radar, but this time focusing on path-integrated attenuation (PIA) as the source of uncertainty. Tagaytay is a C-band radar operating at a lower wavelength and is therefore more affected by attenuation. Applying the same method used for the Subic radar, a time series of calibration bias is also established for the Tagaytay radar. Tagaytay radar sits at a higher altitude than the Subic radar and is surrounded by a gentler terrain, so beam blockage is negligible, especially in the overlapping region. Conversely, Subic radar is largely affected by beam blockage in the overlapping region, but being an SBand radar, attenuation is considered negligible. This coincidentally independent uncertainty contributions of each radar in the region of overlap provides an ideal environment to experiment with the different scenarios of quality filtering when comparing reflectivities from the two ground radars. The standard deviation of the GR–GR differences already decreases if we consider either BBF or PIA to compute the quality index and thus the weights. However, combining them multiplicatively resulted in the largest decrease in standard deviation, suggesting that taking both factors into account increases the consistency between the matched samples. The overlap between the two radars and the instances of the SR passing over the two radars at the same time allows for verification of the SR–GR quality-weighted bias estimation method. In this regard, the consistency between the two ground radars is analyzed before and after bias correction is applied. For cases when all three radars are coincident during a significant rainfall event, the correction of GR reflectivities with calibration bias estimates from SR overpasses dramatically improves the consistency between the two ground radars which have shown incoherent observations before correction. We also show that for cases where adequate SR coverage is unavailable, interpolating the calibration biases using a moving average can be used to correct the GR observations for any point in time to some extent. By using the interpolated biases to correct GR observations, we demonstrate that bias correction reduces the absolute value of the mean difference in most cases, and therefore improves the consistency between the two ground radars. This thesis demonstrates that in general, taking into account systematic sources of uncertainty that are heterogeneous in space (e.g. BBF) and time (e.g. PIA) allows for a more consistent estimation of calibration bias, a homogeneous quantity. The bias still exhibits an unexpected variability in time, which hints that there are still other sources of errors that remain unexplored. Nevertheless, the increase in consistency between SR and GR as well as between the two ground radars, suggests that considering BBF and PIA in a weighted-averaging approach is a step in the right direction. Despite the ample room for improvement, the approach that combines volume matching between radars (either SR–GR or GR–GR) and quality-weighted comparison is readily available for application or further scrutiny. As a step towards reproducibility and transparency in atmospheric science, the 3D matching procedure and the analysis workflows as well as sample data are made available in public repositories. Open-source software such as Python and wradlib are used for all radar data processing in this thesis. This approach towards open science provides both research institutions and weather services with a valuable tool that can be applied to radar calibration, from monitoring to a posteriori correction of archived data. N2 - Die zuverlässige Messung des Niederschlags ist Grundlage für eine Vielzahl quantitativer Anwendungen. Bei der Analyse und Vorhersage von Naturgefahren wie Sturzfluten oder Hangrutschungen ist dabei die räumliche Trennschärfe der Niederschlagsmessung besonders wichtig, da hier oft kleinräumige Starkniederschläge auslösend sind. Seit dem 2.Weltkrieg gewinnen Niederschlagsradare an Bedeutung für die flächenhafte Erfassung des Niederschlags in hoher raum-zeitlicher Aulösung. Und seit Ende des 20. Jahrhunderts investieren Wetterdienste zunehmend in die Archivierung dieser Beobachtungen. Die quantitative Auswertung solcher Archive gestaltet sich jedoch aufgrund unterschiedlicher Fehlerquellen als schwierig. Eine Fehlerquelle ist die Kalibrierung der Radarsysteme, die entlang der sog. "receiver chain" eine Beziehung zwischen der primären Beobachtungsvariable (der zurückgestreuten Strahlungsleistung) und der Zielvariable (des Radarreflektivitätsfaktors, kurz Reflektivität) herstellt. Die Reflektivität wiederum steht über mehrere Größenordnungen hinweg in Beziehung zur Niederschlagsintensität, so dass bereits kleine relative Fehler in der Kalibrierung große Fehler in der quantitativen Niederschlagsschätzung zur Folge haben können. Doch wie kann eine mangelhafte Kalibrierung nachträglich korrigiert werden? Diese Arbeit beantwortet diese Frage am Beispiel des kürzlich installierten Radarnetzwerks der Philippinen. In einer initialen Fallstudie nutzen wir das S-Band-Radar nahe Subic, welches die Metropolregion Manila abdeckt, zur Analyse eines außergewöhnlich ergiebigen Niederschlagsereignisses im Jahr 2012: Es zeigt sich, dass die radargestützte Niederschlagsschätzung um rund 60% unter den Messungen von Niederschlagsschreibern liegt. Kann die Hypothese einer mangelhaften Kalibrierung bestätigt werden, indem die Beobachtungen des Subic-Radars mit den Messungen exzellent kalibrierter, satellitengestützter Radarsysteme verglichen werden? Kann die satellitengestützte Referenz ggf. sogar für eine nachträgliche Kalibrierung genutzt werden? Funktioniert eine solche Methode auch für das benachbarte C-Band-Radar nahe Tagaytay? Können wir die Zuverlässigkeit einer nachträglichen Kalibrierung erhöhen, indem wir andere systematische Fehlerquellen in den Radarmessungen identifizieren? Zur Beantwortung dieser Fragen vergleicht diese Arbeit die Beobachtungen bodengestützter Niederschlagsradare (GR) mit satellitengestützten Niederschlagsradaren (SR) der Tropical Rainfall Measuring Mission (TRMM) und ihrem Nachfolger, der Global Precipitation Measurement (GPM) Mission. Dazu wird eine Methode weiterentwickelt, welche den dreidimensionalen Überlappungsbereich der Samplingvolumina des jeweiligen Instruments|GR und SR|berücksichtigt. Desweiteren wird jedem dieser Überlappungsbereiche ein Wert für die Datenqualität zugewiesen, basierend auf zwei Unsicherheitsquellen: dem Anteil der Abschattung (engl. beam blockage fraction, BBF) und der pfadintegrierten Dämpfung (engl. path-integrated attenuation, PIA). Die BBF zeigt, welcher Anteil des Radarstrahls von der Geländeoberfläche blockiert wird (je höher, desto niedriger die Qualität). PIA quantifiziert den Energieverlust des Signals, wenn es intensiven Niederschlag passiert (je höher, desto niedriger die Qualität). Entsprechend wird der Bias (also der Kalibrierungsfaktor) als das qualitätsgewichtete Mittel der Differenzen zwischen den GR- und SR-Reflektivitäten (ausgedrückt auf der logarithmischen Dezibelskala) berechnet. Diese Arbeit zeigt, dass beide Radare, Subic und Tagaytay, gerade in den frühen Jahren stark von mangelhafter Kalibrierung betroffen waren. Der Vergleich mit satellitengestützten Messungen erlaubt es uns, diesen Fehler nachträglich zu schätzen und zu korrigieren. Die Zuverlässigkeit dieser Schätzung wird durch die Berücksichtigung anderer systematischer Fehler im Rahmen der Qualitätsgewichtung deutlich erhöht. Dies konnte auch dadurch bestätigt werden, dass nach Korrektur der Kalibierung die Signale im Überlappungsbereich der beiden bodengestützten Radare deutlich konsistenter wurden. Eine Interpolation des Fehlers in der Zeit war erfolgreich, so dass die Radarbeobachtungen auch für solche Tage korrigiert werden können, an denen keine satellitengestützten Beobachtungen verfügbar sind. KW - Niederschlagsradar KW - Kalibrierung KW - Fernerkundung KW - TRMM KW - GPM KW - Philippinen KW - weather radar KW - calibration KW - remote sensing KW - TRMM KW - GPM KW - The Philippines Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-445704 ER - TY - THES A1 - Gerber, Stefan T1 - Using software for fault detection in arithmetical circuits Y1 - 1995 ER - TY - THES A1 - Schmitz, Seán T1 - Using low-cost sensors to gather high resolution measurements of air quality in urban environments and inform mobility policy N2 - Air pollution has been a persistent global problem in the past several hundred years. While some industrialized nations have shown improvements in their air quality through stricter regulation, others have experienced declines as they rapidly industrialize. The WHO’s 2021 update of their recommended air pollution limit values reflects the substantial impacts on human health of pollutants such as NO2 and O3, as recent epidemiological evidence suggests substantial long-term health impacts of air pollution even at low concentrations. Alongside developments in our understanding of air pollution's health impacts, the new technology of low-cost sensors (LCS) has been taken up by both academia and industry as a new method for measuring air pollution. Due primarily to their lower cost and smaller size, they can be used in a variety of different applications, including in the development of higher resolution measurement networks, in source identification, and in measurements of air pollution exposure. While significant efforts have been made to accurately calibrate LCS with reference instrumentation and various statistical models, accuracy and precision remain limited by variable sensor sensitivity. Furthermore, standard procedures for calibration still do not exist and most proprietary calibration algorithms are black-box, inaccessible to the public. This work seeks to expand the knowledge base on LCS in several different ways: 1) by developing an open-source calibration methodology; 2) by deploying LCS at high spatial resolution in urban environments to test their capability in measuring microscale changes in urban air pollution; 3) by connecting LCS deployments with the implementation of local mobility policies to provide policy advice on resultant changes in air quality. In a first step, it was found that LCS can be consistently calibrated with good performance against reference instrumentation using seven general steps: 1) assessing raw data distribution, 2) cleaning data, 3) flagging data, 4) model selection and tuning, 5) model validation, 6) exporting final predictions, and 7) calculating associated uncertainty. By emphasizing the need for consistent reporting of details at each step, most crucially on model selection, validation, and performance, this work pushed forward with the effort towards standardization of calibration methodologies. In addition, with the open-source publication of code and data for the seven-step methodology, advances were made towards reforming the largely black-box nature of LCS calibrations. With a transparent and reliable calibration methodology established, LCS were then deployed in various street canyons between 2017 and 2020. Using two types of LCS, metal oxide (MOS) and electrochemical (EC), their performance in capturing expected patterns of urban NO2 and O3 pollution was evaluated. Results showed that calibrated concentrations from MOS and EC sensors matched general diurnal patterns in NO2 and O3 pollution measured using reference instruments. While MOS proved to be unreliable for discerning differences among measured locations within the urban environment, the concentrations measured with calibrated EC sensors matched expectations from modelling studies on NO2 and O3 pollution distribution in street canyons. As such, it was concluded that LCS are appropriate for measuring urban air quality, including for assisting urban-scale air pollution model development, and can reveal new insights into air pollution in urban environments. To achieve the last goal of this work, two measurement campaigns were conducted in connection with the implementation of three mobility policies in Berlin. The first involved the construction of a pop-up bike lane on Kottbusser Damm in response to the COVID-19 pandemic, the second surrounded the temporary implementation of a community space on Böckhstrasse, and the last was focused on the closure of a portion of Friedrichstrasse to all motorized traffic. In all cases, measurements of NO2 were collected before and after the measure was implemented to assess changes in air quality resultant from these policies. Results from the Kottbusser Damm experiment showed that the bike-lane reduced NO2 concentrations that cyclists were exposed to by 22 ± 19%. On Friedrichstrasse, the street closure reduced NO2 concentrations to the level of the urban background without worsening the air quality on side streets. These valuable results were communicated swiftly to partners in the city administration responsible for evaluating the policies’ success and future, highlighting the ability of LCS to provide policy-relevant results. As a new technology, much is still to be learned about LCS and their value to academic research in the atmospheric sciences. Nevertheless, this work has advanced the state of the art in several ways. First, it contributed a novel open-source calibration methodology that can be used by a LCS end-users for various air pollutants. Second, it strengthened the evidence base on the reliability of LCS for measuring urban air quality, finding through novel deployments in street canyons that LCS can be used at high spatial resolution to understand microscale air pollution dynamics. Last, it is the first of its kind to connect LCS measurements directly with mobility policies to understand their influences on local air quality, resulting in policy-relevant findings valuable for decisionmakers. It serves as an example of the potential for LCS to expand our understanding of air pollution at various scales, as well as their ability to serve as valuable tools in transdisciplinary research. N2 - Luftverschmutzung ist seit hundert Jahren ein anhaltendes globales Problem. Während sich die Luftqualität in einigen Industrieländern durch strengere Vorschriften verbessert hat, hat sie sich in anderen Ländern im Zuge der schnell fortschreitenden Industrialisierung verschlechtert. Die Aktualisierung der von der WHO für das Jahr 2021 empfohlenen Grenzwerte für die Luftverschmutzung spiegelt die erheblichen Aus-wirkungen von Schadstoffen wie Stickstoffdioxid (NO2) und Ozon (O3) auf die menschliche Gesundheit wider, da neuere epidemiologische Erkenntnisse darauf hindeuten, dass Luft-verschmutzung selbst bei niedrigen Konzentrationen erhebliche langfristige gesundheitliche Auswirkungen hat. Parallel zu den Entwicklungen in unserem Verständnis der gesundheitlichen Auswirkungen von Luftverschmutzung wurde die neue Technologie der Low-Cost-Sensoren (LCS) sowohl von der Wissenschaft als auch von der Industrie als neue Methode zur Messung der Luftverschmutzung aufgegriffen. Vor allem aufgrund ihrer geringeren Kosten und kleineren Größe können sie in einer Vielzahl von Anwendungen eingesetzt werden, u. a. bei der Entwicklung von Messnetzen mit höherer räumlicher Auf-lösung, bei der Identifizierung von Quellen und bei der Messung der Luftverschmutzung. Es wurden zwar erhebliche Anstrengungen unternommen, um LCS mit Hilfe von Referenzinstrumenten und verschiedenen statistischen Modellen genau zu kalibrieren, aber die Genauigkeit und Präzision bleiben durch die variable Sensorempfindlichkeit begrenzt. Darüber hinaus gibt es immer noch keine Standardverfahren für die Kalibrierung, und die meisten proprietären Kalibrierungsalgorithmen sind Blackboxen, die für die Öffentlichkeit nicht zugänglich sind. Mit dieser Arbeit soll die Wissensbasis über LCS auf verschiedene Weise erweitert werden: 1) durch die Entwicklung einer Open-Source-Kalibrierungsmethodik; 2) durch den Einsatz von LCS mit hoher räumlicher Auflösung in städtischen Umgebungen, um ihre Fähigkeit zur Messung kleinräumlicher Veränderungen der städtischen Luftverschmutzung zu testen; 3) durch die Verknüpfung von LCS-Einsätzen mit der Umsetzung lokaler Verkehrsmaßnahmen, um politische Empfehlungen zu den daraus resultierenden Veränderungen der Luftqualität geben zu können. In einem ersten Schritt wurde festgestellt, dass LCS mit Hilfe von sieben allgemeinen Schritten konsistent und mit guter Leistung gegenüber Referenzinstrumenten kalibriert werden können: 1) Bewertung der Rohdatenverteilung, 2) Datenbereinigung, 3) Kenn-zeichnung von Daten, 4) Modellauswahl und -abstimmung, 5) Modellvalidierung, 6) Export der endgültigen Vorhersagen und 7) Berechnung der damit verbundenen Unsicherheit. Durch die Betonung der Notwendigkeit einer konsistenten Berichterstattung über Details bei jedem Schritt, insbesondere bei der Modellauswahl, -validierung und -leistung, hat diese Arbeit die Bemühungen um eine Standardisierung der Kalibrierungs-methoden vorangetrieben. Darüber hinaus wurden mit der Open-Source-Veröffentlichung von Code und Daten für die siebenstufige Methodik Fortschritte bei der Reformierung der weitgehenden Blackbox-Natur von LCS-Kalibrierungen erzielt. Nach der Einführung einer transparenten und zuverlässigen Kalibrierungsmethode wurden die LCS zwischen 2017 und 2020 an verschiedenen Straßen eingesetzt. Unter Ver-wendung von zwei Arten von LCS, Metalloxid (MOS) und elektrochemisch (EC), wurde ihre Leistung bei der Erfassung der erwarteten Muster der NO2- und O3-Belastung in Städten bewertet. Die Ergebnisse zeigten, dass die kalibrierten Konzentrationen der MOS- und EC-Sensoren mit den allgemeinen Tagesmustern der NO2- und O3-Belastung überein-stimmten, die mit Referenzgeräten gemessen wurden. Während sich MOS als unzuverlässig erwies, wenn es darum ging, Unterschiede zwischen den gemessenen Orten inner-halb der städtischen Umgebung zu erkennen, entsprachen die mit kalibrierten EC-Sensoren gemessenen Konzentrationen den Erwartungen aus Modellierungsstudien zur Verteilung der NO2- und O3-Belastung in Straßenschluchten. Daraus wurde der Schluss gezogen, dass LCS für die Messung der Luftqualität in Städten geeignet sind, auch zur Unterstützung der Entwicklung von Luftverschmutzungsmodellen auf städtischer Ebene, und dass sie neue Erkenntnisse über die Luftverschmutzung in städtischen Umgebungen liefern können. Um das letzte Ziel dieser Arbeit zu erreichen, wurden zwei Messkampagnen im Zusammenhang mit der Umsetzung von drei verkehrspolitischen Maßnahmen in Berlin durchgeführt. Bei der ersten handelte es sich um den Bau einer Pop-up-Radweg auf dem Kottbusser Damm als Reaktion auf die COVID-19-Pandemie, bei der zweiten um die vorübergehende Einrichtung eines Gemeinschaftsraums in der Böckhstraße und bei der letzten um die Sperrung eines Teils der Friedrichstraße für den gesamten motorisierten Verkehr. In allen Fällen wurden NO2-Messungen vor und nach der Durchführung der Maßnahme durchgeführt, um die Veränderungen der Luftqualität infolge dieser Maßnahmen zu bewerten. Die Ergebnisse des Experiments am Kottbusser Damm zeigten, dass die NO2-Konzentrationen, denen die Radfahrer ausgesetzt waren, durch den Radweg um 22 ± 19 % gesenkt wurden. In der Friedrichstraße sank die NO2-Konzentration durch die Straßensperrung auf das Niveau des städtischen Hintergrunds, ohne dass sich die Luft-qualität in den Seitenstraßen verschlechterte. Diese wertvollen Ergebnisse wurden den verantwortlichen Ansprechpersonen in der Stadtverwaltung, die für die Bewertung des Erfolgs und der Zukunft der Maßnahmen verantwortlich sind, schnell mitgeteilt, was die Fähigkeit von LCS unterstreicht, politisch relevante Ergebnisse zu liefern. Da es sich um eine neue Technologie handelt, muss noch viel über LCS und ihren Wert für die akademische Forschung im Bereich der Atmosphärenwissenschaften gelernt werden. Dennoch hat diese Arbeit den Stand der Technik in mehrfacher Hinsicht verbessert. Erstens wurde eine neuartige Open-Source-Kalibrierungsmethode entwickelt, die von LCS-Anwender*innen für verschiedene Luftschadstoffe verwendet werden kann. Zweitens wurde die Beweisgrundlage für die Zuverlässigkeit von LCS zur Messung der Luftqualität in Städten gestärkt, indem durch neuartige Einsätze in Straßenschluchten festgestellt wurde, dass LCS mit hoher räumlicher Auflösung zum Verständnis der Dynamik der Luftverschmutzung auf kleinräumlicher Ebene eingesetzt werden kann. Schließlich ist es die erste Studie dieser Art, die LCS-Messungen direkt mit verkehrspolitischen Maßnahmen verknüpft, um deren Einfluss auf die lokale Luftqualität zu verstehen, was zu politisch relevanten Erkenntnissen führt, die für Entscheidungsträger*innen wertvoll sind. Die Studie ist ein Beispiel für das Potenzial von LCS, unser Verständnis von Luftverschmutzung in verschiedenen Maßstäben zu erweitern, sowie für ihre Fähigkeit, als wert-volle Werkzeuge in der transdisziplinären Forschung zu dienen. T2 - Verwendung kostengünstiger Sensoren zur Erfassung hochauflösender Messungen der Luftqualität in städtischen Umgebungen und zur Information über die Mobilitätspolitik KW - air pollution KW - urban KW - low-cost sensor KW - transdisciplinary KW - sustainability KW - mobility KW - policy KW - Luftverschmutzung KW - Mobilität KW - Politik KW - Nachhaltigkeit KW - Transdisziplinarität KW - Städte Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-601053 ER - TY - THES A1 - Crawford, Michael Scott T1 - Using individual-based modeling to understand grassland diversity and resilience in the Anthropocene N2 - The world’s grassland systems are increasingly threatened by anthropogenic change. Susceptible to a variety of different stressors, from land-use intensification to climate change, understanding the mechanisms driving the maintenance of these systems’ biodiversity and stability, and how these mechanisms may shift under human-mediated disturbance, is thus critical for successfully navigating the next century. Within this dissertation, I use an individual-based and spatially-explicit model of grassland community assembly (IBC-grass) to examine several processes, thought key to understanding their biodiversity and stability and how it changes under stress. In the first chapter of my thesis, I examine the conditions under which intraspecific trait variation influences the diversity of simulated grassland communities. In the second and third chapters of my thesis, I shift focus towards understanding how belowground herbivores influence the stability of these grassland systems to either a disturbance that results in increased, stochastic, plant mortality, or eutrophication. Intraspecific trait variation (ITV), or variation in trait values between individuals of the same species, is fundamental to the structure of ecological communities. However, because it has historically been difficult to incorporate into theoretical and statistical models, it has remained largely overlooked in community-level analyses. This reality is quickly shifting, however, as a consensus of research suggests that it may compose a sizeable proportion of the total variation within an ecological community and that it may play a critical role in determining if species coexist. Despite this increasing awareness that ITV matters, there is little consensus of the magnitude and direction of its influence. Therefore, to better understand how ITV changes the assembly of grassland communities, in the first chapter of my thesis, I incorporate it into an established, individual-based grassland community model, simulating both pairwise invasion experiments as well as the assembly of communities with varying initial diversities. By varying the amount of ITV in these species’ functional traits, I examine the magnitude and direction of ITV’s influence on pairwise invasibility and community coexistence. During pairwise invasion, ITV enables the weakest species to more frequently invade the competitively superior species, however, this influence does not generally scale to the community level. Indeed, unless the community has low alpha- and beta- diversity, there will be little effect of ITV in bolstering diversity. In these situations, since the trait axis is sparsely filled, the competitively inferior may suffer less competition and therefore ITV may buffer the persistence and abundance of these species for some time. In the second and third chapters of my thesis, I model how one of the most ubiquitous trophic interactions within grasslands, herbivory belowground, influences their diversity and stability. Until recently, the fundamental difficulty in studying a process within the soil has left belowground herbivory “out of sight, out of mind.” This dilemma presents an opportunity for simulation models to explore how this understudied process may alter community dynamics. In the second chapter of my thesis, I implement belowground herbivory – represented by the weekly removal of plant biomass – into IBC-grass. Then, by introducing a pulse disturbance, modelled as the stochastic mortality of some percentage of the plant community, I observe how the presence of belowground herbivores influences the resistance and recovery of Shannon diversity in these communities. I find that high resource, low diversity, communities are significantly more destabilized by the presence of belowground herbivores after disturbance. Depending on the timing of the disturbance and whether the grassland’s seed bank persists for more than one season, the impact of the disturbance – and subsequently the influence of the herbivores – can be greatly reduced. However, because human-mediated eutrophication increases the amount of resources in the soil, thus pressuring grassland systems, our results suggest that the influence of these herbivores may become more important over time. In the third chapter of my thesis, I delve further into understanding the mechanistic underpinnings of belowground herbivores on the diversity of grasslands by replicating an empirical mesocosm experiment that crosses the presence of herbivores above- and below-ground with eutrophication. I show that while aboveground herbivory, as predicted by theory and frequently observed in experiments, mitigates the impact of eutrophication on species diversity, belowground herbivores counterintuitively reduce biodiversity. Indeed, this influence positively interacts with the eutrophication process, amplifying its negative impact on diversity. I discovered the mechanism underlying this surprising pattern to be that, as the herbivores consume roots, they increase the proportion of root resources to root biomass. Because root competition is often symmetric, herbivory fails to mitigate any asymmetries in the plants’ competitive dynamics. However, since the remaining roots have more abundant access to resources, the plants’ competition shifts aboveground, towards asymmetric competition for light. This leads the community towards a low-diversity state, composed of mostly high-performance, large plant species. We further argue that this pattern will emerge unless the plants’ root competition is asymmetric, in which case, like its counterpart aboveground, belowground herbivory may buffer diversity by reducing this asymmetry between the competitively superior and inferior plants. I conclude my dissertation by discussing the implications of my research on the state of the art in intraspecific trait variation and belowground herbivory, with emphasis on the necessity of more diverse theory development in the study of these fundamental interactions. My results suggest that the influence of these processes on the biodiversity and stability of grassland systems is underappreciated and multidimensional, and must be thoroughly explored if researchers wish to predict how the world’s grasslands will respond to anthropogenic change. Further, should researchers myopically focus on understanding central ecological interactions through only mathematically tractable analyses, they may miss entire suites of potential coexistence mechanisms that can increase the coviability of species, potentially leading to coexistence over ecologically-significant timespans. Individual-based modelling, therefore, with its focus on individual interactions, will prove a critical tool in the coming decades for understanding how local interactions scale to larger contexts, and how these interactions shape ecological communities and further predicting how these systems will change under human-mediated stress. N2 - Grasland ist durch anthropogene Veränderungen bedroht. Im Rahmen dieser Dissertation verwende ich ein individuelles und räumlich-explizites Modell der Grasland-Gemeinschaftsversammlung (IBC-Gras), um verschiedene Prozesse zu untersuchen, die als Schlüssel zum Verständnis ihrer Biodiversität und Stabilität und deren Veränderung unter Stress gelten. Im ersten Kapitel meiner Dissertation untersuche ich die Bedingungen, unter denen eine intraspezifische Merkmalsvariation die Vielfalt der simulierten Graslandgemeinschaften beeinflusst. Im zweiten und dritten Kapitel meiner Dissertation verlege ich den Schwerpunkt auf das Verständnis, wie unterirdische Pflanzenfresser die Stabilität dieser Grünlandsysteme beeinflussen, und zwar entweder durch eine Störung, die zu erhöhter, stochastischer Pflanzensterblichkeit oder Eutrophierung führt. Intraspezifische Merkmalsvariation (ITV) oder Variation der Merkmalswerte zwischen Individuen derselben Art ist für die Struktur ökologischer Gemeinschaften von grundlegender Bedeutung. Da sie sich jedoch historisch gesehen nur schwer in theoretische und statistische Modelle einbauen lässt, wurde sie bei Analysen auf Gemeindeebene weitgehend übersehen. Diese Realität ändert sich jedoch schnell, da ein Forschungskonsens darauf hindeutet, dass sie einen beträchtlichen Anteil der Gesamtvariation innerhalb einer ökologischen Gemeinschaft ausmachen kann und dass sie eine entscheidende Rolle bei der Bestimmung der Koexistenz von Arten spielen kann. Trotz dieses zunehmenden Bewusstseins, dass das ITV von Bedeutung ist, gibt es kaum einen Konsens über das Ausmaß und die Richtung seines Einflusses. Um besser zu verstehen, wie ITV die Zusammensetzung von Grünlandgesellschaften verändert, beziehe ich daher im ersten Kapitel meiner Dissertation diese in ein etabliertes, auf dem Individuum basierendes Modell der Grünlandgesellschaften ein. Indem ich die Menge an ITV in den funktionellen Merkmalen dieser Arten variiere, untersuche ich das Ausmaß und die Richtung des Einflusses von ITV auf die paarweise Unsichtbarkeit und die Koexistenz von Gemeinschaften. Im zweiten und dritten Kapitel meiner Dissertation modelliere ich, wie eine der allgegenwärtigsten trophischen Interaktionen innerhalb von Grasland, die Pflanzenfresserei unter der Erde, deren Vielfalt und Stabilität beeinflusst. Bis vor kurzem hat die grundlegende Schwierigkeit, einen Prozess im Boden zu untersuchen, dazu geführt, dass Pflanzenfresser unter der Erde "aus den Augen, aus dem Sinn" geraten sind. Dieses Dilemma bietet eine Gelegenheit für Simulationsmodelle zu erforschen, wie dieser noch nicht untersuchte Prozess die Dynamik von Gemeinschaften verändern kann. Im zweiten Kapitel meiner Dissertation implementiere ich unterirdische Pflanzenfresserei - repräsentiert durch die wöchentliche Entfernung von pflanzlicher Biomasse - in IBC-Gras. Dann beobachte ich durch die Einführung einer Pulsstörung, die als stochastische Mortalität eines gewissen Prozentsatzes der Pflanzengemeinschaft modelliert wird, wie die Anwesenheit von unterirdischen Pflanzenfressern die Resistenz und Erholung der Shannon-Diversität in diesen Gemeinschaften beeinflusst. Ich stelle fest, dass Gemeinschaften mit hohen Ressourcen und geringer Diversität durch die Anwesenheit von unterirdischen Pflanzenfressern nach einer Störung wesentlich stärker destabilisiert werden. Abhängig vom Zeitpunkt der Störung und davon, ob die Saatgutbank des Graslandes länger als eine Saison besteht, können die Auswirkungen der Störung - und damit der Einfluss der Pflanzenfresser - stark reduziert werden. Im dritten Kapitel meiner Dissertation vertiefe ich das Verständnis der mechanistischen Grundlagen der unterirdischen Herbivoren für die Diversität von Grasland, indem ich ein empirisches Mesokosmos-Experiment repliziere, das die Anwesenheit von Herbivoren über- und unterirdisch mit Eutrophierung kreuzt. Ich zeige, dass, während oberirdische Pflanzenfresser, wie von der Theorie vorhergesagt und häufig in Experimenten beobachtet, die Auswirkungen der Eutrophierung auf die Artenvielfalt abschwächen, unterirdische Pflanzenfresser die Artenvielfalt kontraintuitiv reduzieren. Tatsächlich interagiert dieser Einfluss positiv mit dem Eutrophierungsprozess und verstärkt seine negativen Auswirkungen auf die Vielfalt. Ich schließe meine Dissertation mit einer Erörterung der Auswirkungen meiner Forschung auf den Stand der Technik bei der Variation intraspezifischer Merkmale und der unterirdischen Pflanzenfresserei, wobei der Schwerpunkt auf der Notwendigkeit einer vielfältigeren Theorieentwicklung bei der Untersuchung dieser grundlegenden Wechselwirkungen liegt. Meine Ergebnisse deuten darauf hin, dass der Einfluss dieser Prozesse auf die biologische Vielfalt und Stabilität von Graslandsystemen unterschätzt wird und mehrdimensional ist und gründlich erforscht werden muss, wenn Forscher vorhersagen wollen, wie die Grasländer der Welt auf anthropogene Veränderungen reagieren werden. Sollten sich Forscherinnen und Forscher darüber hinaus myopisch darauf konzentrieren, zentrale ökologische Wechselwirkungen nur durch mathematisch nachvollziehbare Analysen zu verstehen, könnten sie ganze Suiten potenzieller Koexistenzmechanismen übersehen, die die Begehrlichkeit von Arten erhöhen können und möglicherweise zu einer Koexistenz über ökologisch signifikante Zeitspannen hinweg führen. Daher wird sich die individuenbasierte Modellierung mit ihrem Schwerpunkt auf individuellen Interaktionen in den kommenden Jahrzehnten als ein entscheidendes Instrument erweisen, um zu verstehen, wie lokale Interaktionen sich auf größere Zusammenhänge ausdehnen und wie diese Interaktionen ökologische Gemeinschaften formen, und um weiter vorherzusagen, wie sich diese Systeme unter vom Menschen verursachtem Stress verändern werden. T2 - Einsatz von individualbasierten Modellen zum Verständnis der Grasland-Diversität und -Resilienz im Anthropozän KW - intraspecific trait variation KW - eutrophication KW - belowground herbivory KW - grassland KW - ecological modelling KW - intraspezifische Merkmalsvariation KW - Eutrophierung KW - Grasland KW - ökologische Modellierung KW - unterirdische Pflanzenfresser Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-479414 ER - TY - THES A1 - Rigamonti, Lia T1 - Use of digital media for remote instruction in exercise sciences education and research N2 - To grant high-quality evidence-based research in the field of exercise sciences, it is often necessary for various institutions to collaborate over longer distances and internationally. Here, not only with regard to the recent COVID-19-pandemic, digital means provide new options for remote scientific exchanges. This thesis is meant to analyse and test digital opportunities to support the dissemination of knowledge and instruction of investigators about defined examination protocols in an international multi-center context. The project consisted of three studies. The first study, a questionnaire-based survey, aimed at learning about the opinions and preferences of digital learning or social media among students of sport science faculties in two universities each in Germany, the UK and Italy. Based on these findings, in a second study, an examination video of an ultrasound determination of the intima-media-thickness and diameter of an artery was distributed by a messenger app to doctors and nursing personnel as simulated investigators and efficacy of the test setting was analysed. Finally, a third study integrated the use of an augmented reality device for direct remote supervision of the same ultrasound examinations in a long-distance international setting with international experts from the fields of engineering and sports science and later remote supervision of augmented reality equipped physicians performing a given task. The first study with 229 participating students revealed a high preference for YouTube to receive video-based knowledge as well as a preference for using WhatsApp and Facebook for peer-to-peer contacts for learning purposes and to exchange and discuss knowledge. In the second study, video-based instructions send by WhatsApp messenger showed high approval of the setup in both study groups, one with doctors familiar with the use of ultrasound technology as well as one with nursing staff who were not familiar with the device, with similar results in overall time of performance and the measurements of the femoral arteries. In the third and final study, experts from different continents were connected remotely to the examination site via an augmented reality device with good transmission quality. The remote supervision to doctors ́ examination produced a good interrater correlation. Experiences with the augmented reality-based setting were rated as highly positive by the participants. Potential benefits of this technique were seen in the fields of education, movement analysis, and supervision. Concluding, the findings of this thesis were able to suggest modern and addressee- centred digital solutions to enhance the understanding of given examinations techniques of potential investigators in exercise science research projects. Head-mounted augmented reality devices have a special value and may be recommended for collaborative research projects with physical examination–based research questions. While the established setting should be further investigated in prospective clinical studies, digital competencies of future researchers should already be enhanced during the early stages of their education. N2 - Um qualitativ hochwertige, evidenzbasierte Forschung im Bereich der Bewegungswissenschaften zu gewährleisten, ist es oft notwendig, dass verschiedene Einrichtungen über größere Entfernungen und international zusammenarbeiten. Hier bieten digitale Mittel, nicht nur im Hinblick auf die aktuelle COVID-19-Pandemie, neue Möglichkeiten des wissenschaftlichen Austauschs aus der Ferne. In dieser Arbeit sollen digitale Möglichkeiten zur Unterstützung der Wissensverbreitung und der Instruktion von Untersuchern über definierte Untersuchungsprotokolle in einem internationalen multizentrischen Kontext analysiert und getestet werden. Das Projekt bestand aus drei Studien. Die erste Studie, eine fragebogenbasierte Umfrage, zielte darauf ab, die Meinungen und Präferenzen von Studierenden sportwissenschaftlicher Fakultäten an je zwei Universitäten in Deutschland, Großbritannien und Italien in Bezug auf digitales Lernen oder soziale Medien zu erfahren. Darauf aufbauend wurde in einer zweiten Studie ein Untersuchungsvideo einer Ultraschallbestimmung der Intima-Media-Dicke und des Durchmessers einer Arterie mittels einer Messenger-App an Ärzt*innen und Pflegepersonal als simulierte Untersucher verteilt und die Wirksamkeit des Testsettings analysiert. Schließlich wurde in einer dritten Studie die Verwendung eines Augmented-Reality-Geräts zur direkten Fernüberwachung derselben Ultraschalluntersuchungen in einem internationalen Umfeld mit internationalen Experten aus den Bereichen Ingenieurwesen und Sportwissenschaft und später zur Fernüberwachung von mit Augmented Reality ausgestatteten Ärzt*innen bei der Durchführung einer bestimmten Aufgabe integriert. Die erste Studie mit 229 teilnehmenden Studierenden ergab eine hohe Präferenz für YouTube, um videobasiertes Wissen zu erhalten, sowie eine Präferenz für die Nutzung von WhatsApp und Facebook für Peer-to-Peer-Kontakte zu Lernzwecken und zum Austausch und zur Diskussion von Wissen. In der zweiten Studie zeigten videobasierte Anleitungen, die per WhatsApp-Messenger versandt wurden, eine hohe Akzeptanz in beiden Studiengruppen, sowohl bei Ärzt*innen, die mit der Anwendung der Ultraschalltechnologie vertraut waren, als auch bei dem Pflegepersonal, das mit dem Gerät nicht vertraut war, mit ähnlichen Ergebnissen bei der Gesamtdurchführungszeit und den Messungen der Oberschenkelarterien. In der dritten und letzten Studie wurden Experten aus verschiedenen Kontinenten über ein Augmented-Reality-Gerät mit guter Übertragungsqualität aus der Ferne mit dem Untersuchungsort verbunden. Die Fernüberwachung der ärztlichen Untersuchung ergab eine gute Interrater-Korrelation. Die Erfahrungen mit dem Augmented-Reality-basierten Setting wurden von den Teilnehmenden als sehr positiv bewertet. Potenzielle Vorteile dieser Technik wurden in den Bereichen Ausbildung, Bewegungsanalyse und Supervision gesehen. Zusammenfassend lässt sich sagen, dass die Ergebnisse dieser Arbeit moderne und adressatenorientierte digitale Lösungen vorschlagen können, um das Verständnis für bestimmte Untersuchungstechniken bei potenziellen Untersuchenden in bewegungswissenschaftlichen Forschungsprojekten zu verbessern. Kopfgetragene Augmented-Reality-Geräte haben einen besonderen Wert und können für kollaborative Forschungsprojekte mit untersuchungsbasierten Forschungsfragen empfohlen werden. Während das etablierte Setting in prospektiven klinischen Studien weiter untersucht werden sollte, sollten die digitalen Kompetenzen zukünftiger Forschenden bereits in den frühen Phasen ihrer Ausbildung verbessert werden. KW - digital media KW - remote instruction KW - exercise science KW - digitale Medien KW - Bewegungswissenschaft KW - Fernausbildung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-583642 ER - TY - THES A1 - Svirejeva-Hopkins, Anastasia T1 - Urbanised territories as a specific component of the global carbon cycle N2 - Wir betrachten folgende Teile: die zusätzlichen Kohlenstoff(C)-emissionen, welche aus der Umwandlung von natürlichem Umland durch Stadtwachstum resultieren, und die Änderung des C-Flusses durch 'urbanisierte' Ökosysteme, soweit atmosphärisches C durch diese in umliegende natürliche Ökosysteme entlang der Kette “Atmosphäre -> Vegetation -> abgestorbene organische Substanzen” gepumpt wird: d.h. C-Export; für den Zeitraum von 1980 bis 2050. Als Szenario nutzen wir Prognosen der regionalen Stadtbevölkerung, welche durch ein 'Hybridmodell' generiert werden für acht Regionen. Alle Schätzungen der C-Flüsse basieren auf zwei Modellen: das Regression Modell und das sogenannte G-Modell. Die Siedlungsfläche, welche mit dem Wachstum der Stadtbevölkerung zunimmt, wird in 'Grünflächen' (Parks, usw.), Gebäudeflächen und informell städtisch genutzte Flächen (Slums, illegale Lagerplätze, usw.) unterteilt. Es werden jährlich die regionale und globale Dynamik der C-Emissionen und des C-Exports sowie die C-Gesamtbilanz berechnet. Dabei liefern beide Modelle qualitativ ähnliche Ergebnisse, jedoch gibt es einige quantitative Unterschiede. Im ersten Modell erreicht die globale Jahresemission für die Dekade 2020-2030 resultierend aus der Landnutzungsänderung ein Maximum von 205 Mt/a. Die maximalen Beiträge zur globalen Emission werden durch China, die asiatische und die pazifische Region erbracht. Im zweiten Modell erhöht sich die jährliche globale Emission von 1.12 GtC/a für 1980 auf 1.25 GtC/a für 2005 (1Gt = 109 t). Danach beginnt eine Reduzierung. Vergleichen wir das Emissionmaximum mit der Emission durch Abholzung im Jahre 1980 (1.36 GtC/a), können wir konstatieren, daß die Urbanisierung damit in vergleichbarer Grösse zur Emission beiträgt. Bezogen auf die globale Dynamik des jährlichen C-Exports durch Urbanisierung beobachten wir ein monotones Wachstum bis zum nahezu dreifachen Wert von 24 MtC/a für 1980 auf 66 MtC/a für 2050 im ersten Modell, bzw. im zweiten Modell von 249 MtC/a für 1980 auf 505 MtC/a für 2050. Damit ist im zweiten Fall die Transportleistung der Siedlungsgebiete mit dem C-Transport durch Flüsse in die Ozeane (196 .. 537 MtC/a) vergleichbar. Bei der Abschätzung der Gesamtbilanz finden wir, daß die Urbanisierung die Bilanz in Richtung zu einer 'Senke' verschiebt. Entsprechend dem zweiten Modell beginnt sich die C-Gesamtbilanz (nach annähernder Konstanz) ab dem Jahre 2000 mit einer fast konstanten Rate zu verringern. Wenn das Maximum im Jahre 2000 bei 905MtC/a liegt, fällt dieser Wert anschliessend bis zum Jahre 2050 auf 118 MtC/a. Bei Extrapolation dieser Dynamik in die Zukunft können wir annehmen, daß am Ende des 21. Jahrhunderts die “urbane” C-Gesamtbilanz Null bzw. negative Werte erreicht. N2 - We calculate the additional carbon emissions as a result of the conversion of natural land in a process of urbanisation; and the change of carbon flows by “urbanised” ecosystems, when the atmospheric carbon is exported to the neighboring territories, from 1980 till 2050 for the eight regions of the world. As a scenario we use combined UN and demographic model′s prognoses for regional total and urban population growth. The calculations of urban areas dynamics are based on two models: the regression model and the Gamma-model. The urbanised area is sub-divided on built-up, „green“ (parks, etc.) and informal settlements (favelas) areas. The next step is to calculate the regional and world dynamics of carbon emission and export, and the annual total carbon balance. Both models give similar results with some quantitative differences. In the first model, the world annual emissions attain a maximum of 205 MtC/year between 2020-2030. Emissions will then slowly decrease. The maximum contributions are given by China and the Asia and Pacific regions. In the second model, world annual emissions increase to 1.25 GtC in 2005, beginning to decrease afterwards. If we compare the emission maximum with the annual emission caused by deforestation, 1.36GtC per year, then we can say that the role of urbanised territories (UT) is of a comparable magnitude. Regarding the world annual export of carbon by UT, we observe its monotonous growth by three times, from 24 MtC to 66 MtC in the first model, and from 249 MtC to 505 MtC in the second one. The latter, is therefore comparable to the amount of carbon transported by rivers into the ocean (196-537 MtC). By estimating the total balance we find that urbanisation shifts the total balance towards a “sink” state. The urbanisation is inhibited in the interval 2020-2030, and by 2050 the growth of urbanised areas would almost stop. Hence, the total emission of natural carbon at that stage will stabilise at the level of the 1980s (80 MtC per year). As estimated by the second model, the total balance, being almost constant until 2000, then starts to decrease at an almost constant rate. We can say that by the end of the XXI century, the total carbon balance will be equal to zero, when the exchange flows are fully balanced, and may even be negative, when the system begins to take up carbon from the atmosphere, i.e., becomes a “sink”. T2 - Urbanised territories as a specific component of the global carbon cycle KW - Urbanisierung KW - C-Senke KW - Bilanz KW - Kohlenstoffzyklus KW - Städte KW - C-Fluss KW - Slums KW - Vegetation KW - Verteilung KW - urban KW - land conversion KW - carbon KW - sink KW - cities KW - urbanisation KW - emissions KW - favela KW - regional KW - population KW - density KW - distribution KW - flux KW - vegetation Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001512 ER - TY - THES A1 - Numberger, Daniela T1 - Urban wastewater and lakes as habitats for bacteria and potential vectors for pathogens T1 - Urbane Abwässer und Seen als Habitat für Bakterien und potentielle Vektoren für Krankheitserreger N2 - Wasser ist lebensnotwendig und somit eine essentielle Ressource. Jedoch sind unsere Süßwasser-Ressourcen begrenzt und ihre Erhaltung daher besonders wichtig. Verschmutzungen mit Chemikalien und Krankheitserregern, die mit einer wachsenden Bevölkerung und Urbanisierung einhergehen, verschlechtern die Qualität unseres Süßwassers. Außerdem kann Wasser als Übertragungsvektor für Krankheitserreger dienen und daher wasserbürtige Krankheiten verursachen. Der Leibniz-Forschungsverbund INFECTIONS‘21 untersuchte innerhalb der interdisziplinären Forschungsgruppe III - „Wasser", Gewässer als zentralen Mittelpunkt für Krankheiterreger. Dabei konzentrierte man sich auf Clostridioides difficile sowie aviäre Influenza A-Viren, von denen angenommen wird, dass sie in die Gewässer ausgeschieden werden. Ein weiteres Ziel bestand darin, die bakterielle Gemeinschaften eines Klärwerkes der deutschen Hauptstadt Berlin zu charakterisieren, um anschließend eine Bewertung des potentiellen Gesundheitsrisikos geben zu können. Bakterielle Gemeinschaften des Roh- und Klarwassers aus dem Klärwerk unterschieden sich signifikant voneinander. Der Anteil an Darm-/Fäkalbakterien war relativ niedrig und potentielle Darmpathogene wurden größtenteils aus dem Rohwasser entfernt. Ein potentielles Gesundheitsrisiko konnte allerdings von potentiell pathogenen Legionellen wie L. lytica festgestellt werden, deren relative Abundanz im Klarwasser höher war als im Rohwasser. Es wurden außerdem drei C. difficile-Isolate aus den Klärwerk-Rohwasser und einem städtischen Badesee in Berlin (Weisser See) gewonnen und sequenziert. Die beiden Isolate aus dem Klärwerk tragen keine Toxin-Gene, wohingegen das Isolat aus dem See Toxin-Gene besitzt. Alle drei Isolate sind sehr nah mit humanen Stämmen verwandt. Dies deutet auf ein potentielles, wenn auch sporadisches Gesundheitsrisiko hin. (Aviäre) Influenza A-Viren wurden in 38.8% der untersuchten Sedimentproben mittels PCR detektiert, aber die Virusisolierung schlug fehl. Ein Experiment mit beimpften Wasser- und Sedimentproben zeigte, dass für die Isolierung aus Sedimentproben eine relativ hohe Viruskonzentration nötig ist. In Wasserproben ist jedoch ein niedriger Titer an Influenza A-Viren ausreichend, um eine Infektion auszulösen. Es konnte zudem auch festgestellt werden, dass sich „Madin-Darby Canine Kidney (MDCK)―-Zellkulturen im Gegensatz zu embryonierten Hühnereiern besser eignen, um Influenza A-Viren aus Sediment zu isolieren. Zusammenfassend lässt sich sagen, dass diese Arbeit mögliche Gesundheitsrisiken aufgedeckt hat, wie etwa durch Legionellen im untersuchten Berliner Klärwerk, deren relative Abundanz in geklärtem Abwasser höher ist als im Rohwasser. Desweiteren wird indiziert, dass Abwasser und Gewässer als Reservoir und Vektor für pathogene Organismen dienen können, selbst für nicht-typische Wasser-Pathogene wie C. difficile. N2 - Water is essential to life and thus, an essential resource. However, freshwater resources are limited and their maintenance is crucial. Pollution with chemicals and pathogens through urbanization and a growing population impair the quality of freshwater. Furthermore, water can serve as vector for the transmission of pathogens resulting in water-borne illness. The Interdisciplinary Research Group III – "Water" of the Leibniz alliance project INFECTIONS‘21 investigated water as a hub for pathogens focusing on Clostridioides difficile and avian influenza A viruses that may be shed into the water. Another aim of this study was to characterize the bacterial communities in a wastewater treatment plant (WWTP) of the capital Berlin, Germany to further assess potential health risks associated with wastewater management practices. Bacterial communities of WWTP inflow and effluent differed significantly. The proportion of fecal/enteric bacteria was relatively low and OTUs related to potential enteric pathogens were largely removed from inflow to effluent. However, a health risk might exist as an increased relative abundance of potential pathogenic Legionella spp. such as L. lytica was observed. Three Clostridioides difficile isolates from wastewater inflow and an urban bathing lake in Berlin (‗Weisser See‘) were obtained and sequenced. The two isolates from the wastewater did not carry toxin genes, whereas the isolate from the lake was positive for the toxin genes. All three isolates were closely related to human strains. This indicates a potential, but rather sporadic health risk. Avian influenza A viruses were detected in 38.8% of sediment samples by PCR, but virus isolation failed. An experiment with inoculated freshwater and sediment samples showed that virus isolation from sediment requires relatively high virus concentrations and worked much better in Madin-Darby Canine Kidney (MDCK) cell cultures than in embryonated chicken eggs, but low titre of influenza contamination in freshwater samples was sufficient to recover virus. In conclusion, this work revealed potential health risks coming from bacterial groups with pathogenic potential such as Legionella spp. whose relative abundance is higher in the released effluent than in the inflow of the investigated WWTP. It further indicates that water bodies such as wastewater and lake sediments can serve as reservoir and vector, even for non-typical water-borne or water-transmitted pathogens such as C. difficile. KW - water KW - Wasser KW - bacteria KW - Bakterien KW - influenza A viruses KW - Influenza A Viren KW - pathogens KW - Krankheitserreger Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-437095 ER - TY - THES A1 - Hennig, Theresa T1 - Uranium migration in the Opalinus Clay quantified on the host rock scale with reactive transport simulations T1 - Uranmigration im Opalinuston quantifiziert für die Wirtsgesteinsskala mit reaktiven Transportsimulationen N2 - Humankind and their environment need to be protected from the harmful effects of spent nuclear fuel, and therefore disposal in deep geological formations is favoured worldwide. Suitability of potential host rocks is evaluated, among others, by the retention capacity with respect to radionuclides. Safety assessments are based on the quantification of radionuclide migration lengths with numerical simulations as experiments cannot cover the required temporal (1 Ma) and spatial scales (>100 m). Aim of the present thesis is to assess the migration of uranium, a geochemically complex radionuclide, in the potential host rock Opalinus Clay. Radionuclide migration in clay formations is governed by diffusion due to their low permeability and retarded by sorption. Both processes highly depend on pore water geochemistry and mineralogy that vary between different facies. Diffusion is quantified with the single-component (SC) approach using one diffusion coefficient for all species and the process-based multi-component (MC) option. With this, each species is assigned its own diffusion coefficient and the interaction with the diffuse double layer is taken into account. Sorption is integrated via a bottom-up approach using mechanistic surface complexation models and cation exchange. Therefore, reactive transport simulations are conducted with the geochemical code PHREEQC to quantify uranium migration, i.e. diffusion and sorption, as a function of mineralogical and geochemical heterogeneities on the host rock scale. Sorption processes are facies dependent. Migration lengths vary between the Opalinus Clay facies by up to 10 m. Thereby, the geochemistry of the pore water, in particular the partial pressure of carbon dioxide (pCO2), is more decisive for the sorption capacity than the amount of clay minerals. Nevertheless, higher clay mineral quantities compensate geochemical variations. Consequently, sorption processes must be quantified as a function of pore water geochemistry in contact with the mineral assemblage. Uranium diffusion in the Opalinus Clay is facies independent. Speciation is dominated by aqueous ternary complexes of U(VI) with calcium and carbonate. Differences in the migration lengths between SC and MC diffusion are with +/-5 m negligible. Further, the application of the MC approach highly depends on the quality and availability of the underlying data. Therefore, diffusion processes can be adequately quantified with the SC approach using experimentally determined diffusion coefficients. The hydrogeological system governs pore water geochemistry within the formation rather than the mineralogy. Diffusive exchange with the adjacent aquifers established geochemical gradients over geological time scales that can enhance migration by up to 25 m. Consequently, uranium sorption processes must be quantified following the identified priority: pCO2 > hydrogeology > mineralogy. The presented research provides a workflow and orientation for other potential disposal sites with similar pore water geochemistry due to the identified mechanisms and dependencies. With a maximum migration length of 70 m, the retention capacity of the Opalinus Clay with respect to uranium is sufficient to fulfill the German legal minimum requirement of a thickness of at least 100 m. N2 - Zum Schutz von Mensch und Umwelt vor den schädlichen Auswirkungen abgebrannter Brennelemente, wird weltweit die Endlagerung in tiefen geologischen Formationen favorisiert. Daher ist das Rückhaltevermögen potenzieller Wirtsgesteine gegenüber Radionukliden ein wichtiges Kriterium. Sicherheitsbewertungen basieren auf der Quantifizierung der Migration mit numerischen Simulationen, da Experimente die erforderlichen zeitlichen (1 Ma) und räumlichen Skalen (>100 m) nicht abdecken können. Ziel der Dissertation ist es, die Migration des geochemisch komplexen Radionuklids Uran im potenziellen Wirtsgestein Opalinuston zu bewerten. In Tonformationen wird die Radionuklidmigration aufgrund der geringen Durchlässigkeit von Diffusion bestimmt und durch Sorption verzögert. Beide Prozesse hängen stark von der Porenwassergeochemie und Mineralogie ab, die zwischen verschiedenen Fazies variieren. Die Diffusion wird mit dem Einkomponenten- (SC) und Mehrkomponentenansatz (MC) quantifiziert. Nach dem SC-Ansatz wird ein Diffusionskoeffizient für alle Spezies verwendet, wohingegen mit der MC-Option individuelle Werte zugewiesen und die Interaktion mit der diffusen Doppelschicht berücksichtigt wird. Die Sorption ist mit Hilfe mechanistischer Oberflächenkomplexierungsmodelle und Kationenaustausch integriert. Die Durchführung reaktiver Transportsimulationen mit dem Code PHREEQC ermöglicht die Quantifizierung der Uranmigration, d. h. Diffusion und Sorption, in Abhängigkeit der Mineralogie und Porenwassergeochemie für die Wirtsgesteinsskala. Sorptionsprozesse sind faziesabhängig. Die Migrationslängen variieren um bis zu 10 m zwischen den Fazies aufgrund von Unterschieden in der Porenwassergeochemie. Dabei ist insbesondere der Partialdruck des Kohlendioxids (pCO2) entscheidender für die Sorptionskapazität als die Menge an Tonmineralen. Allerdings kompensieren höhere Tonmineralmengen geochemische Schwankungen. Folglich müssen Sorptionsprozesse in Abhängigkeit der Porenwassergeochemie quantifiziert werden. Urandiffusion ist faziesunabhängig. Die Speziation wird durch aquatische ternäre Komplexe von U(VI) mit Kalzium und Karbonat dominiert. Die Unterschiede in den Migrationslängen zwischen SC- und MC-Diffusion sind mit +/-5 m vernachlässigbar. Die Anwendung des MC-Ansatzes hängt stark von der Qualität und Verfügbarkeit der zugrunde liegenden Daten ab. Diffusionsprozesse können also mit dem SC-Ansatz unter Verwendung experimentell ermittelter Diffusionskoeffizienten quantifiziert werden. Haupteinflussfaktor auf die Porenwassergeochemie ist das hydrogeologische System und nicht die Mineralogie. Der diffusive Austausch mit den angrenzenden Aquiferen hat über geologische Zeiträume geochemische Gradienten geschaffen, die die Migration um bis zu 25 m verlängern können. Folglich müssen Sorptionsprozesse nach der identifizierten Priorität quantifiziert werden: pCO2 > Hydrogeologie > Mineralogie. Die ermittelten Abhängigkeiten dienen als Orientierung für andere potenzielle Endlagerstandorte mit ähnlicher Porenwassergeochemie. Mit einer maximalen Migration von 70 m reicht das Rückhaltevermögen des Opalinustons gegenüber Uran aus, um die deutsche gesetzliche Mindestanforderung von 100 m Mächtigkeit zu erfüllen. KW - uranium KW - Opalinus Clay KW - PHREEQC KW - diffusion KW - sorption KW - nuclear waste disposal KW - reactive transport simulation KW - host rock scale KW - Opalinuston KW - PHREEQC KW - Diffusion KW - Wirtsgesteinsskala KW - Endlagerung nuklearer Abfälle KW - reaktive Transportsimulation KW - Sorption KW - Uran Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-552700 ER - TY - THES A1 - Mühlenbruch, Kristin T1 - Updating the german diabetes risk score - model extensions, validation and reclassification Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Vockenberg, Kerstin T1 - Updating of representations in working memory T1 - Aktualisierung von Arbeitsgedächtnisrepräsentationen N2 - The limited capacity of working memory forces people to update its contents continuously. Two aspects of the updating process were investigated in the present experimental series. The first series concerned the question if it is possible to update several representations in parallel. Similar results were obtained for the updating of object features as well as for the updating of whole objects, participants were able to update representations in parallel. The second experimental series addressed the question if working memory representations which were replaced in an updating disappear directly or interfere with the new representations. Evidence for the existence of old representations was found under working memory conditions and under conditions exceeding working memory capacity. These results contradict the hypothesis that working memory contents are protected from proactive interference of long-term memory contents. N2 - Aufgrund der begrenzten Kapazität des Arbeitsgedächtnisses müssen seine Inhalte ständig aktualisiert werden. Zwei Aspekte des Aktualisierungsprozesses wurden in Experimentalserien untersucht. Die erste Serie betraf die Frage, ob es möglich ist, mehrere Repräsentationen gleichzeitig zu aktualisieren. Ähnliche Ergebnisse ergaben sich sowohl für das Aktualisieren von Objektmerkmalen als auch für das Aktualisieren von ganzen Objekten, die Versuchsteilnehmer konnten Repräsentationen gleichzeitig aktualisieren. In der zweiten Experimentalserie wurde die Frage untersucht, ob Arbeitsgedächtnisrepräsentationen, die bei einer Aktualisierung ersetzt worden sind, sofort verschwinden oder mit den neuen Repräsentationen interferieren. Evidenz für das Vorhandensein alter Repräsentationen wurde unter Arbeitsgedächtnisbedingungen und unter Bedingungen, bei denen die Arbeitsgedächtniskapazität überschritten wird, gefunden. Diese Ergebnisse widersprechen der Hypothese, dass Arbeitsgedächtnisinhalte vor proaktiver Interferenz aus dem Langzeitgedächtnis geschützt sind. KW - Aktualisierung KW - Arbeitsgedächtnis KW - proaktive Interferenz KW - parallele Aktualisierung KW - updating KW - working memory KW - proactive interference KW - parallel updating Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-11767 ER - TY - THES A1 - Klier, Dennis Tobias T1 - Upconversion luminescence in Er-codoped NaYF4 nanoparticles T1 - Frequenzaufkonversion in Er-codotierten NaYF4 Nanopartikeln BT - fundamental photophysics and optimization for life science applications BT - fundamentale Photophysik und Optimierung für Anwendungen in den Lebenswissenschaften N2 - In the context of an increasing population of aging people and a shift of medical paradigm towards an individualized medicine in health care, nanostructured lanthanides doped sodium yttrium fluoride (NaYF4) represents an exciting class of upconversion nanomaterials (UCNM) which are suitable to bring forward developments in biomedicine and -biodetection. Despite the fact that among various fluoride based upconversion (UC) phosphors lanthanide doped NaYF4 is one of the most studied upconversion nanomaterial, many open questions are still remaining concerning the interplay of the population routes of sensitizer and activator electronic states involved in different luminescence upconversion photophysics as well as the role of phonon coupling. The collective work aims to explore a detailed understanding of the upconversion mechanism in nanoscaled NaYF4 based materials co-doped with several lanthanides, e.g. Yb3+ and Er3+ as the "standard" type upconversion nanoparticles (UCNP) up to advanced UCNP with Gd3+ and Nd3+. Especially the impact of the crystal lattice structure as well as the resulting lattice phonons on the upconversion luminescence was investigated in detail based on different mixtures of cubic and hexagonal NaYF4 nanoscaled crystals. Three synthesis methods, depending on the attempt of the respective central spectroscopic questions, could be accomplished in the following work. NaYF4 based upconversion nanoparticles doped with several combination of lanthanides (Yb3+, Er3+, Gd3+ and Nd3+) were synthesized successfully using a hydrothermal synthesis method under mild conditions as well as a co-precipitation and a high temperature co-precipitation technique. Structural information were gathered by means of X-ray diffraction (XRD), electron microscopy (TEM), dynamic light scattering (DLS), Raman spectroscopy and inductively coupled plasma atomic emission spectrometry (ICP-OES). The results were discussed in detail with relation to the spectroscopic results. A variable spectroscopic setup was developed for multi parameter upconversion luminescence studies at various temperature 4 K to 328 K. Especially, the study of the thermal behavior of upconversion luminescence as well as time resolved area normalized emission spectra were a prerequisite for the detailed understanding of intramolecular deactivation processes, structural changes upon annealing or Gd3+ concentration, and the role of phonon coupling for the upconversion efficiency. Subsequently it became possible to synthesize UCNP with tailored upconversion luminescence properties. In the end, the potential of UCNP for life science application should be enunciated in context of current needs and improvements of a nanomaterial based optical sensors, whereas the "standard" UCNP design was attuned according to the special conditions in the biological matrix. In terms of a better biocompatibility due to a lower impact on biological tissue and higher penetrability for the excitation light. The first step into this direction was to use Nd3+ ions as a new sensitizer in tridoped NaYF4 based UCNP, whereas the achieved absolute and relative temperature sensitivity is comparable to other types of local temperature sensors in the literature. N2 - Ziel der Arbeit war es ein erweitertes Verständnis des Mechanismus der Lichtaufkonversion, sowie dessen gezielte Manipulation in verschiedenen Nanomaterialien auf Natriumyttrium-fluoridbasis zu erlangen. Die optischen Eigenschaften werden dabei durch eine gezielte Zusammenstellung verschiedener Lanthanoidionen hervorgerufen, welche während der Synthese in die Materialien eingebracht werden. Der Fokus lag hierbei in der Aufklärung des Zusammenspiels zwischen der Struktur der Materialien und deren Lichtaufkonver-sionsvermögen sowie dem Erlangen eines generellen Verständnisses der einzelnen Teilschritte des Lichtaufkonversionsmechanismus. Dabei wird das Licht, welches nach Anregung der Lanthanoidionen durch einen Laser von diesen emittiert wird, hinsichtlich der Farbzusammensetzung und des Abklingverhaltens der Lumineszenz untersucht. Diese Erkenntnisse geben sowohl einen Einblick in die verschiedenen Teilschritte des Lichtaufkonversionsmechanismus, als auch deren Korrelation zur Struktur der Nanomaterialien. Während der Arbeit wurde ein variabler Messplatz mit einer wellenlängendurchstimmbaren Anregungslichtquelle, einer Detektionseinheit mit hervorragender spektraler und zeitlicher Auflösung für die Messung des emittierten Lichtes sowie einer Temperiereinheit, mit der die Proben in einem Temperaturbereich von 4 Kelvin (-269,15 °C) bis 328 Kelvin (50 °C) temperiert werden können, aufgebaut. Die Proben wurden mithilfe der modernen Kopräzipitations- und Hydrothermalsynthese in verschiedenen Zusammensetzungen und Oberflächenmodifizierungen hergestellt, um sowohl Partikel für fundamentale Untersuchungen der Lichtaufkonversion verfügbar zu haben, als auch den hohen Anforderungen für Anwendungen in den Lebenswissenschaften gerecht zu werden. Die Reaktion fand bei hohen Temperaturen (160 °C bis 320 °C) unter Schutzgasatmosphäre statt und gewährleistete so die Bildung von hochkristallinen Partikeln, deren Größe stark mit der Synthesetemperatur korreliert. Mithilfe von zeitaufgelösten Lumineszenzuntersuchungen gelang ein sehr detaillierter Einblick in strukturelle Veränderungen der Nanopartikeln, welche durch klassische strukturanalytische Methoden, wie der Röntgenpulverdiffraktometrie, nicht in dem Maße möglich sind. Zudem konnte ein erheblicher Teil dazu beigetragen werden, das komplexe Zusammenspiel von Energietransportmechanismen, Gitterschwingungen und thermisch induzierten Prozessen zu verstehen. Zuletzt wurden, basierend auf der Vielzahl an gewonnenen Erkenntnissen, speziell designte Nanopartikel hergestellt. Die Farbe des Emissionslichts dieser Partikel wies dabei eine hohe Abhängigkeit von der Umgebungstemperatur auf. Auftretende Herausforderungen induziert durch das verwendete Anregungslicht im Nahinfrarotenbereich, wie das Aufheizen oder die zu hohe Absorption der Probe, wurden durch die Erweiterung des Aufkonversionssystems gelöst. Damit konnten beste Voraussetzungen für potentielle Anwendungen, wie zum Beispiel als Nanothermometer geschaffen werden. KW - Nanopartikel KW - nanoparticle KW - Frequenzaufkonversion KW - upconversion KW - Lanthanoide KW - lanthanides Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98486 ER - TY - THES A1 - Valade, Aurelien Niels Valentin T1 - Unveiling the Local Universe Y1 - 2023 ER - TY - THES A1 - Hutter, Anne T1 - Unveiling the epoch of reionization by simulations and high-redshift galaxies T1 - Untersuchungen der Epoche der Reionisation mithilfe von Simulationen und Beobachtungen hoch rotverschobener Galaxien N2 - The Epoch of Reionization marks after recombination the second major change in the ionization state of the universe, going from a neutral to an ionized state. It starts with the appearance of the first stars and galaxies; a fraction of high-energy photons emitted from galaxies permeate into the intergalactic medium (IGM) and gradually ionize the hydrogen, until the IGM is completely ionized at z~6 (Fan et al., 2006). While the progress of reionization is driven by galaxy evolution, it changes the ionization and thermal state of the IGM substantially and affects subsequent structure and galaxy formation by various feedback mechanisms. Understanding this interaction between reionization and galaxy formation is further impeded by a lack of understanding of the high-redshift galactic properties such as the dust distribution and the escape fraction of ionizing photons. Lyman Alpha Emitters (LAEs) represent a sample of high-redshift galaxies that are sensitive to all these galactic properties and the effects of reionization. In this thesis we aim to understand the progress of reionization by performing cosmological simulations, which allows us to investigate the limits of constraining reionization by high-redshift galaxies as LAEs, and examine how galactic properties and the ionization state of the IGM affect the visibility and observed quantities of LAEs and Lyman Break galaxies (LBGs). In the first part of this thesis we focus on performing radiative transfer calculations to simulate reionization. We have developed a mapping-sphere-scheme, which, starting from spherically averaged temperature and density fields, uses our 1D radiative transfer code and computes the effect of each source on the IGM temperature and ionization (HII, HeII, HeIII) profiles, which are subsequently mapped onto a grid. Furthermore we have updated the 3D Monte-Carlo radiative transfer pCRASH, enabling detailed reionization simulations which take individual source characteristics into account. In the second part of this thesis we perform a reionization simulation by post-processing a smoothed-particle hydrodynamical (SPH) simulation (GADGET-2) with 3D radiative transfer (pCRASH), where the ionizing sources are modelled according to the characteristics of the stellar populations in the hydrodynamical simulation. Following the ionization fractions of hydrogen (HI) and helium (HeII, HeIII), and temperature in our simulation, we find that reionization starts at z~11 and ends at z~6, and high density regions near sources are ionized earlier than low density regions far from sources. In the third part of this thesis we couple the cosmological SPH simulation and the radiative transfer simulations with a physically motivated, self-consistent model for LAEs, in order to understand the importance of the ionization state of the IGM, the escape fraction of ionizing photons from galaxies and dust in the interstellar medium (ISM) on the visibility of LAEs. Comparison of our models results with the LAE Lyman Alpha (Lya) and UV luminosity functions at z~6.6 reveals a three-dimensional degeneracy between the ionization state of the IGM, the ionizing photons escape fraction and the ISM dust distribution, which implies that LAEs act not only as tracers of reionization but also of the ionizing photon escape fraction and of the ISM dust distribution. This degeneracy does not even break down when we compare simulated with observed clustering of LAEs at z~6.6. However, our results show that reionization has the largest impact on the amplitude of the LAE angular correlation functions, and its imprints are clearly distinguishable from those of properties on galactic scales. These results show that reionization cannot be constrained tightly by exclusively using LAE observations. Further observational constraints, e.g. tomographies of the redshifted hydrogen 21cm line, are required. In addition we also use our LAE model to probe the question when a galaxy is visible as a LAE or a LBG. Within our model galaxies above a critical stellar mass can produce enough luminosity to be visible as a LBG and/or a LAE. By finding an increasing duty cycle of LBGs with Lya emission as the UV magnitude or stellar mass of the galaxy rises, our model reveals that the brightest (and most massive) LBGs most often show Lya emission. Predicting the Lya equivalent width (Lya EW) distribution and the fraction of LBGs showing Lya emission at z~6.6, we reproduce the observational trend of the Lya EWs with UV magnitude. However, the Lya EWs of the UV brightest LBGs exceed observations and can only be reconciled by accounting for an increased Lya attenuation of massive galaxies, which implies that the observed Lya brightest LAEs do not necessarily coincide with the UV brightest galaxies. We have analysed the dependencies of LAE observables on the properties of the galactic and intergalactic medium and the LAE-LBG connection, and this enhances our understanding of the nature of LAEs. N2 - Die Epoche der Reionisation markiert die nach der Rekombination zweite grundlegende Änderung des Ionisationszustandes des Universums, nämlich den Übergang von einem neutralen zu einem ionisierten Zustand. Die Epoche der Reionisation beginnt mit dem Erscheinen der ersten Sterne und Galaxien. Von den Galaxien ausgesendete energiereiche Photonen durchdringen das intergalaktische Medium (IGM) und ionisieren den vorhandenen Wasserstoff schrittweise, bis das IGM bei z~6 (Fan et al., 2006) vollständig ionisiert ist. Während der Verlauf der Reionisation zum einen durch die Galaxienentwicklung bestimmt wird, verändert die Reionisation zum anderen den Ionisations- und thermischen Zustand des IGMs und beeinflusst damit die darauffolgende Struktur- und Galaxienentwicklung durch verschiedene Rückkopplungsmechanismen. Die geringen Kenntnisse der Eigenschaften von Galaxien bei hohen Rotverschiebungen wie der Staubverteilung und des Anteils an ionisierenden Photonen, die die Galaxien verlassen können, erschweren jedoch das Verständnis des Wechselspiels zwischen Reionisation und Galaxienentwicklung. Lyman Alpha Emitter (LAE) stellen Galaxien bei hoher Rotverschiebung dar, deren Sichtbarkeit diesen Eigenschaften und den Effekten der Reionisa\-tion unterliegen. Diese Arbeit zielt darauf ab, den Verlauf der Reionisation anhand von kosmologischen Simulationen zu verstehen. Insbesondere interessiert, inwieweit der Verlauf der Reionisation durch Galaxien bei hohen Rotverschiebungen eingeschränkt werden kann, und wie die Eigenschaften der Galaxien und der Ionisationszustand des IGMs die Sichtbarkeit und die beobachtbaren Größen der LAE und Lyman Break Galaxien (LBG) beeinflussen können. Im ersten Teil dieser Arbeit werden verschiedene Ansätze zur Lösung des Strahlungstransportes neu- und weiterentwickelt mit dem Ziel, die Epoche der Reionisation zu simulieren. Dazu wurde zum einen eine Methode entwickelt, die als Berechnungsgrundlage sphärisch gemittelte Temperatur- und Dichtefelder benutzt. Mithilfe des in dieser Arbeit entwickelten eindimensionalen Strahlungstransportcodes werden die Auswirkungen jeder Quelle auf die dementsprechenden Temperatur- und Ionisa\-tionsprofile (HII, HeII, HeIII) berechnet und diese auf ein Gitter abgebildet. Zum anderen wurde der dreidimensionale Monte-Carlo-Strahlungstransportcode pCRASH so erweitert, sodass detaillierte Reionisationsimulationen, die individulle Quelleneigenschaften berücksichtigen, durchgeführt werden können. Im zweiten Teil dieser Arbeit wird die Epoche der Reionisation in sich konsistent simuliert, indem aufbauend auf einer gasdynamischen Simulation (smoothed particle hydrodynamics (SPH), GADGET-2) mithilfe von pCRASH Strahlungstransportrechnungen ausgeführt werden. Dabei werden die ionisierenden Quellen gemäß der Eigenschaften der Sternpopulationen in der gasdynamischen Simulation modelliert. Die Entwicklung der IGM-Ionisationsanteile an Wasserstoff (HII) und Helium (HeII, HeIII) sowie der Temperatur werden in der Simulation verfolgt. Es zeigt sich, dass Reionisation erstens bei z~11 beginnt und bei z~6 endet, und zweitens von überdichten zu unterdichten Gebieten des Kosmos hin verläuft. Im dritten Teil der Arbeit werden kosmologische SPH - und Strahlungstransportsimulationen mit einem physikalisch motivierten, selbst-konsistenten Modell für LAEs kombiniert, um den Einfluss des Ionisationszustandes des IGMs, des Anteils der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im interstellaren Medium (ISM) auf die sichtbaren Eigenschaften der LAEs zu verstehen. Der Vergleich der Simulationsergebnisse mit den beobachteten LAE Lyman Alpha- und UV-Leuchtkraftfunktionen bei z~6.6 offenbart eine dreidimensionale Entartung zwischen dem Ionisationszustand des IGMs, dem Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM. Dies bedeutet, dass die Sichtbarkeit von LAEs nicht nur ein Indikator für den Ionisationszustand des IGM ist, sondern auch für den Anteil an ionisierenden Photonen, die die Galaxien verlassen können, und für die Staubverteilung im ISM. Diese Entartung lässt sich auch nicht auflösen, wenn Simulations- und Beobachtungsdaten der räumlichen Verteilung der LAEs bei z~6.6 gemessen mit der winkelabhängigen Zweipunktkorrelationsfunktion verglichen werden. Jedoch zeigt unser Modell, dass die Reionisation den größten Effekt auf die Amplitude der Winkelkorrelation hat und dass sich ihre Spuren klar von den Effekten auf galaktischen Skalen (den Anteil der ionisierenden Photonen, die die Galaxien verlassen können, und der Staubverteilung im ISM) unterscheiden lassen. Somit kann Reionisation nicht alleine durch LAE Beobachtungen eingeschränkt werden, und es werden weitere Beobachtungen, wie z.B. die Tomographie der rotverschobenen 21cm Wasserstofflinie, benötigt. KW - cosmology KW - reionization KW - high-redshift galaxies KW - radiative transfer KW - simulation KW - Kosmologie KW - Reionisation KW - hoch rotverschobene Galaxien KW - Strahlungstransport KW - Simulationen Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76998 ER - TY - THES A1 - Usadel, Björn T1 - Untersuchungen zur Biosynthese der pflanzlichen Zellwand = [Identification and characterization of genes involved in plant cell wall synthesis] T1 - Untersuchungen zur Biosynthese der pflanzlichen Zellwand N2 - Even though the structure of the plant cell wall is by and large quite well characterized, its synthesis and regulation remains largely obscure. However, it is accepted that the building blocks of the polysaccharidic part of the plant cell wall are nucleotide sugars. Thus to gain more insight into the cell wall biosynthesis, in the first part of this thesis, plant genes possibly involved in the nucleotide sugar interconversion pathway were identified using a bioinformatics approach and characterized in plants, mainly in Arabidopsis. For the computational identification profile hidden markov models were extracted from the Pfam and TIGR databases. Mainly with these, plant genes were identified facilitating the “hmmer” program. Several gene families were identified and three were further characterized, the UDP-rhamnose synthase (RHM), UDP-glucuronic acid epimerase (GAE) and the myo-inositol oxygenase (MIOX) families. For the three-membered RHM family relative ubiquitous expression was shown using variuos methods. For one of these genes, RHM2, T-DNA lines could be obtained. Moreover, the transcription of the whole family was downregulated facilitating an RNAi approach. In both cases a alteration of cell wall typic polysaccharides and developmental changes could be shown. In the case of the rhm2 mutant these were restricted to the seed or the seed mucilage, whereas the RNAi plants showed profound changes in the whole plant. In the case of the six-membered GAE family, the gene expressed to the highest level (GAE6) was cloned, expressed heterologously and its function was characterized. Thus, it could be shown that GAE6 encodes for an enzyme responsible for the conversion of UDP-glucuronic acid to UDP-galacturonic acid. However, a change in transcript level of variuos GAE family members achieved by T-DNA insertions (gae2, gae5, gae6), overexpression (GAE6) or an RNAi approach, targeting the whole family, did not reveal any robust changes in the cell wall. Contrary to the other two families the MIOX gene family had to be identified using a BLAST based approach due to the lack of enough suitable candidate genes for building a hidden markov model. An initial bioinformatic characterization was performed which will lead to further insights into this pathway. In total it was possible to identify the two gene families which are involved in the synthesis of the two pectin backbone sugars galacturonic acid and rhamnose. Moreover with the identification of the MIOX genes a genefamily, important for the supply of nucleotide sugar precursors was identified. In a second part of this thesis publicly available microarray datasets were analyzed with respect to co-responsive behavior of transcripts on a global basis using nearly 10,000 genes. The data has been made available to the community in form of a database providing additional statistical and visualization tools (http://csbdb.mpimp-golm.mpg.de). Using the framework of the database to identify nucleotide sugar converting genes indicated that co-response might be used for identification of novel genes involved in cell wall synthesis based on already known genes. N2 - Obwohl der Aufbau der pflanzlichen Zellwand im Großen und Ganzen relativ gut charakterisiert ist, ist relativ wenig über ihre Synthese bekannt. Allgemein akzeptiert ist jedoch, dass die Nukleotidzucker die Vorstufe für den polysaccharidären Teil der Zellwand stellen. Im Rahmen der vorliegenden Arbeit wurden neue Kandidatengene für die Zellwandbiosynthese mittels bioinformatorischer Analysen ermittelt und deren Rolle in Pflanzen, hauptsächlich Arabidopsis thaliana untersucht. Zur Identifizierung von Arabidopsis thaliana Kandidatengenen des Nukleotidzucker-Stoffwechselweges wurden „hidden Markov Modelle“ für Gene desselben aus den Datenbanken Pfam und TIGR extrahiert. Unter anderem wurden diese dann unter Zuhilfenahme des Programms hmmer zur Identifikation von pflanzlichen Genen benutzt. Es wurden einige Genfamilien identifiziert und drei von diesen wurden weiter charakterisiert. Hierbei handelte sich um eine UDP-Rhamnose Synthase Familie (RHM), eine UDP-Glucuronsäurepimerase Familie (GAE) und eine myo-Inositol Oxygenase Familie (MIOX). Für die RHM Kandidatengenfamilie, mit drei Mitgliedern, wurde die relativ ubiquitäre Expression aller Gene mittels verschiedener Methoden gezeigt und für eines der Gene, RHM2, konnten T-DNA Linien bezogen werden. Außerdem wurde die Transkription der gesamten Familie mittels eines RNAi Konstruktes herunter geregelt. In beiden Fällen konnte eine Veränderung von zellwandtypischen Polysacchariden sowie schwere Entwicklungsstörungen gezeigt werden. Diese waren bei der rhm2 Funktionsverlustpflanze auf den Samenschleim bzw. den Samen reduziert, bei den RNAi Pflanzen hingegen war die gesamte Pflanze betroffen. Im Falle der zweiten Kandidatengenfamilie, GAE, wurde das höchst-exprimierte Gen (GAE6) kloniert, heterolog exprimiert und die Funktion charakterisiert. So konnte gezeigt werden, dass GAE6 für ein Enzym kodiert, welches UDP-Glukuronsäure in UDP-Galakturonsäure wandelt. Allerdings zeigten Pflanzen mit veränderter Transkriptmenge, erreicht durch T-DNA Insertionen (gae2, gae5, gae6), Überexpression (GAE6) oder RNAi , keine robuste Veränderung der Zellwand. Die letzte betrachtete Kandiatengenfamilie myo-Inositol Oxygenase wurde im Gegensatz zu den beiden anderen Familien, durch eine BLAST Suche gefunden, da zur Zeit der Durchführung noch zu wenig myo-inositol Oxygenasen bekannt waren, um daraus „hidden Markov Modelle“ abzuleiten. Dennoch konnten erste bioinformatorische Analysen zu dieser Genfamilie gemacht werden. Insgesamt gesehen wurden in diesem Teil der Arbeit die beiden Genfamilien identifiziert und charkterisiert, die bei der Synthese der beiden Pektinrückgradzucker Rhamnose und Galakturonsäure die tragende Rolle spielen. Weiterhin wurde mit der Identifizierung der MIOX Genfamilie, eine Genfamilie identifiziert, die wichtige Vorstufen in der Synthese der Nukleotidzucker liefert. In einem zweiten Teil der Arbeit wurden öffentlich zugängliche Mikroarray-Daten durch ihr Gleich -oder Ungleichverhalten charakterisiert. Dieses erfolgte auf globaler Ebene für zunächst fast 10.000 Gene. Die Daten wurden in Form einer allgemein zugänglichen Datenbank der Allgemeinheit zur Verfügung gestellt (http://csbdb.mpimp-golm.mpg.de). Eine Anwendung der Methode auf Gene des Nukleotidzuckerstoffwechsels, deutet darauf hin, dass so neue Kandiatengene, die bei der Zellwandsynthese eine Rolle spielen, von bereits bekannten Genen abgeleitet werden können. T2 - Identification and Characterization of Genes Involved in Plant Cell Wall Synthesis KW - Zellwand KW - Rhamnose KW - Galacturonsäure KW - Pektinsäure KW - Pektine KW - Inosite KW - Korrelationsanalyse KW - plant cell wall biosynthesis KW - udp-rhamnose KW - udp-galacturonic acid KW - correlation networks Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-2947 ER -