TY - THES A1 - Afifi, Haitham T1 - Wireless In-Network Processing for Multimedia Applications T1 - Drahtlose In-Network-Verarbeitung für Multimedia-Anwendungen N2 - With the recent growth of sensors, cloud computing handles the data processing of many applications. Processing some of this data on the cloud raises, however, many concerns regarding, e.g., privacy, latency, or single points of failure. Alternatively, thanks to the development of embedded systems, smart wireless devices can share their computation capacity, creating a local wireless cloud for in-network processing. In this context, the processing of an application is divided into smaller jobs so that a device can run one or more jobs. The contribution of this thesis to this scenario is divided into three parts. In part one, I focus on wireless aspects, such as power control and interference management, for deciding which jobs to run on which node and how to route data between nodes. Hence, I formulate optimization problems and develop heuristic and meta-heuristic algorithms to allocate wireless and computation resources. Additionally, to deal with multiple applications competing for these resources, I develop a reinforcement learning (RL) admission controller to decide which application should be admitted. Next, I look into acoustic applications to improve wireless throughput by using microphone clock synchronization to synchronize wireless transmissions. In the second part, I jointly work with colleagues from the acoustic processing field to optimize both network and application (i.e., acoustic) qualities. My contribution focuses on the network part, where I study the relation between acoustic and network qualities when selecting a subset of microphones for collecting audio data or selecting a subset of optional jobs for processing these data; too many microphones or too many jobs can lessen quality by unnecessary delays. Hence, I develop RL solutions to select the subset of microphones under network constraints when the speaker is moving while still providing good acoustic quality. Furthermore, I show that autonomous vehicles carrying microphones improve the acoustic qualities of different applications. Accordingly, I develop RL solutions (single and multi-agent ones) for controlling these vehicles. In the third part, I close the gap between theory and practice. I describe the features of my open-source framework used as a proof of concept for wireless in-network processing. Next, I demonstrate how to run some algorithms developed by colleagues from acoustic processing using my framework. I also use the framework for studying in-network delays (wireless and processing) using different distributions of jobs and network topologies. N2 - Mit der steigenden Anzahl von Sensoren übernimmt Cloud Computing die Datenverarbeitung vieler Anwendungen. Dies wirft jedoch viele Bedenken auf, z. B. in Bezug auf Datenschutz, Latenzen oder Fehlerquellen. Alternativ und dank der Entwicklung eingebetteter Systeme können drahtlose intelligente Geräte für die lokale Verarbeitung verwendet werden, indem sie ihre Rechenkapazität gemeinsam nutzen und so eine lokale drahtlose Cloud für die netzinterne Verarbeitung schaffen. In diesem Zusammenhang wird eine Anwendung in kleinere Aufgaben unterteilt, so dass ein Gerät eine oder mehrere Aufgaben ausführen kann. Der Beitrag dieser Arbeit zu diesem Szenario gliedert sich in drei Teile. Im ersten Teil konzentriere ich mich auf drahtlose Aspekte wie Leistungssteuerung und Interferenzmanagement um zu entscheiden, welche Aufgaben auf welchem Knoten ausgeführt werden sollen und wie die Daten zwischen den Knoten weitergeleitet werden sollen. Daher formuliere ich Optimierungsprobleme und entwickle heuristische und metaheuristische Algorithmen zur Zuweisung von Ressourcen eines drahtlosen Netzwerks. Um mit mehreren Anwendungen, die um diese Ressourcen konkurrieren, umgehen zu können, entwickle ich außerdem einen Reinforcement Learning (RL) Admission Controller, um zu entscheiden, welche Anwendung zugelassen werden soll. Als Nächstes untersuche ich akustische Anwendungen zur Verbesserung des drahtlosen Durchsatzes, indem ich Mikrofon-Taktsynchronisation zur Synchronisierung drahtloser Übertragungen verwende. Im zweiten Teil arbeite ich mit Kollegen aus dem Bereich der Akustikverarbeitung zusammen, um sowohl die Netzwerk- als auch die Anwendungsqualitäten (d.h. die akustischen) zu optimieren. Mein Beitrag konzentriert sich auf den Netzwerkteil, wo ich die Beziehung zwischen akustischen und Netzwerkqualitäten bei der Auswahl einer Teilmenge von Mikrofonen für die Erfassung von Audiodaten oder der Auswahl einer Teilmenge von optionalen Aufgaben für die Verarbeitung dieser Daten untersuche; zu viele Mikrofone oder zu viele Aufgaben können die Qualität durch unnötige Verzögerungen verringern. Daher habe ich RL-Lösungen entwickelt, um die Teilmenge der Mikrofone unter Netzwerkbeschränkungen auszuwählen, wenn sich der Sprecher bewegt, und dennoch eine gute akustische Qualität gewährleistet. Außerdem zeige ich, dass autonome Fahrzeuge, die Mikrofone mit sich führen, die akustische Qualität verschiedener Anwendungen verbessern. Dementsprechend entwickle ich RL-Lösungen (Einzel- und Multi-Agenten-Lösungen) für die Steuerung dieser Fahrzeuge. Im dritten Teil schließe ich die Lücke zwischen Theorie und Praxis. Ich beschreibe die Eigenschaften meines Open-Source-Frameworks, das als Prototyp für die drahtlose netzinterne Verarbeitung verwendet wird. Anschließend zeige ich, wie einige Algorithmen, die von Kollegen aus der Akustikverarbeitung entwickelt wurden, mit meinem Framework ausgeführt werden können. Außerdem verwende ich das Framework für die Untersuchung von netzinternen Verzögerungen unter Verwendung verschiedener Aufgabenverteilungen und Netzwerktopologien. KW - wireless networks KW - reinforcement learning KW - network optimization KW - Netzoptimierung KW - bestärkendes Lernen KW - drahtloses Netzwerk Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-604371 ER - TY - THES A1 - Siegmund, Nicole T1 - Wind driven soil particle uptake Quantifying drivers of wind erosion across the particle size spectrum T1 - Partikelaufwirbelung durch Wind - Über die Quantifizierung von Winderosion über das ganze Partikel-Größenspektrum N2 - Among the multitude of geomorphological processes, aeolian shaping processes are of special character, Pedogenic dust is one of the most important sources of atmospheric aerosols and therefore regarded as a key player for atmospheric processes. Soil dust emissions, being complex in composition and properties, influence atmospheric processes and air quality and has impacts on other ecosystems. In this because even though their immediate impact can be considered low (exceptions exist), their constant and large-scale force makes them a powerful player in the earth system. dissertation, we unravel a novel scientific understanding of this complex system based on a holistic dataset acquired during a series of field experiments on arable land in La Pampa, Argentina. The field experiments as well as the generated data provide information about topography, various soil parameters, the atmospheric dynamics in the very lower atmosphere (4m height) as well as measurements regarding aeolian particle movement across a wide range of particle size classes between 0.2μm up to the coarse sand. The investigations focus on three topics: (a) the effects of low-scale landscape structures on aeolian transport processes of the coarse particle fraction, (b) the horizontal and vertical fluxes of the very fine particles and (c) the impact of wind gusts on particle emissions. Among other considerations presented in this thesis, it could in particular be shown, that even though the small-scale topology does have a clear impact on erosion and deposition patterns, also physical soil parameters need to be taken into account for a robust statistical modelling of the latter. Furthermore, specifically the vertical fluxes of particulate matter have different characteristics for the particle size classes. Finally, a novel statistical measure was introduced to quantify the impact of wind gusts on the particle uptake and its application on the provided data set. The aforementioned measure shows significantly increased particle concentrations during points in time defined as gust event. With its holistic approach, this thesis further contributes to the fundamental understanding of how atmosphere and pedosphere are intertwined and affect each other. N2 - Unter der Vielzahl geomorphologischer Prozesse nehmen äolische Formgebungsprozesse eine besondere Stellung ein, denn obwohl ihre unmittelbaren Auswirkungen als gering einzuschätzen sind (Ausnahmen existieren), sind sie aufgrund ihrer konstanten und großen Kraft ein mächtiger Akteur im Erdsystem. Pedogener Staub ist eine der wichtigsten Quellen atmosphärischer Aerosole und kann daher als Schlüsselfaktor für atmosphärische Prozesse angesehen werden. Bodenstaubemissionen, die in Zusammensetzung und Eigenschaften komplex sind, beeinflussen atmosphärische Prozesse und Luftqualität und haben Auswirkungen auf andere Ökosysteme. Um zum wissenschaftlichen Verständnis dieses komplexen Systems beizutragen, dokumentiert diese Arbeit eine Reihe von Veröffentlichungen, die alle auf einem ganzheitlichen Datensatz basieren, die während einer Reihe von Feldexperimenten auf Ackerland in La Pampa, Argentinien, gewonnen wurden. Die Feldexperimente sowie die generierten Daten liefern Informationen über Topographie, verschiedene Bodenparameter, die atmosphärische Dynamik in der unteren Atmosphäre (4 m Höhe) sowie Messungen zur äolischen Partikelbewegung über einen weiten Bereich von Partikelgrößenklassen zwischen 0,2μm und groben Sand. Die Untersuchungen konzentrieren sich auf drei Themen: Die Auswirkungen kleinräumiger Landschaftsstrukturen auf äolische Transportprozesse der groben Partikelfraktion, die horizontalen und vertikalen Strömungen der sehr feinen Partikel und der Einfluss von Windböen auf die Partikelemissionen. Neben anderen in dieser Arbeit vorgestellten Überlegungen konnte insbesondere gezeigt werden, dass, obwohl die kleinräumige Topologie einen deutlichen Einfluss auf Erosions- und Ablagerungsmuster hat, auch physikalische Bodenparameter für eine robuste statistische Modellierung berücksichtigt werden müssen. Darüber hinaus weisen speziell die vertikalen Feinstaubflüsse unterschiedliche Eigenschaften für die Partikelgrößenklassen auf. Schließlich wurde ein neuartiges statistisches Maß eingeführt, um den Einfluss von Windböen auf die Partikelkonzentration der Luft zu quantifizieren, und seine Anwendung auf den bereitgestellten Datensatz zeigt signifikant erhöhte Partikelkonzentrationen zu Zeitpunkten, die als Böen definiert wurden. Mit ihrem ganzheitlichen Ansatz trägt diese Arbeit weiter zum grundlegenden Verständnis bei, wie Atmosphäre und Pedosphäre miteinander verflochten sind und sich gegenseitig beeinflussen. KW - Winderosion KW - winderosion KW - PM10, PM2, PM1 KW - Horizontal flux KW - horizontaler Fluss KW - Vertical flux KW - vertikaler Fluss KW - Argentina KW - Argentinien KW - wind gusts KW - Windböen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-574897 ER - TY - THES A1 - Mainka, Stefan T1 - Wieder gehen lernen mit Musik T1 - Learning To walk again with music BT - Evaluierung eines musikgestützten Laufbandtrainings für hemiparetische Patienten nach Schlaganfall BT - evaluating a music-based treadmill training for hemiparetic patients after stroke N2 - Die Mehrzahl der Schlaganfallpatienten leidet unter Störungen der Gehfähigkeit. Die Behandlung der Folgen des Schlaganfalls stellt eine der häufigsten Indikationen für die neurologische Rehabilitation dar. Dabei steht die Wiederherstellung von sensomotorischen Funktionen, insbesondere der Gehfähigkeit, und der gesellschaftlichen Teilhabe im Vordergrund. In Deutschland wird in der Gangrehabilitation nach Schlaganfall oft das Neurophysiologische Gangtraining nach Bobath (NGB) angewandt, das jedoch in seiner Effektivität kritisch gesehen wird. In Behandlungsleitlinien wird zuerst das Laufbandtraining (LT) empfohlen. Für diese Therapie liegen Wirknachweise für Verbesserungen in Gehgeschwindigkeit und Gehausdauer vor. Auch für die Rhythmisch-auditive Stimulation (RAS), dem ebenerdigen Gangtraining mit akustischer Stimulation liegt vergleichbare Evidenz für Schlaganfallpatienten vor. Ziel der durchgeführten Studie war es, zu klären ob der Einsatz von RAS die Effektivität von LT verbessert. Es wurden die Auswirkungen eines 4-wöchigen musikgestützten Laufbandtrainings auf die Gangrehabilitation von Schlaganfallpatienten untersucht. Für die Kombinationstherapie RAS mit Laufbandtraining (RAS-LT) wurde spezielle Trainingsmusik entwickelt. Diese wurde an die individuelle Laufbandkadenz des Patienten angepasst und in Abstimmung mit der Bandgeschwindigkeit systematisch gesteigert. Untersucht wurde, ob RAS-LT zu stärkeren Verbesserungen der Gehfähigkeit bei Schlaganfallpatienten führt als die Standardtherapien NGB und LT. Dazu wurde eine klinische Evaluation im prospektiven randomisierten und kontrollierten Parallelgruppendesign mit 45 Patienten nach Schlaganfall durchgeführt. 45 Patienten mit Hemiparese der unteren Extremität oder unsicherem und asymmetrischem Gangbild wurden in der Akutphase nach Schlaganfall eingeschlossen. Bei 10 Patienten wurde die Studie während der Interventionsphase abgebrochen, davon 1 Patient mit unerwünschter Nebenwirkung in Folge des LT. Die verwendete Testbatterie umfasste neben Verfahren zur Bestimmung der Gehfunktion wie Fast Gait Speed Test, 3-min-Walking-Time-Test und der apparativen Ganganalyse mit dem Lokometer nach Bessou eine statische Posturographie und eine kinematische 2D-Ganganalyse auf dem Laufband. Diese Methode wurde in Erweiterung der bisherigen Studienlage in dieser Form erstmals für diese Fragestellung und dieses Patientenkollektiv konzipiert und eingesetzt. Sie ermöglichte eine differenzierte und seitenbezogene Beurteilung der Bewegungsqualität. Die primären Endpunkte der Studie waren die longitudinalen Gangparameter Kadenz, Gehgeschwindigkeit und Schrittlänge. Als sekundäre Endpunkte dienten die Schrittsymmetrie, die Gehausdauer, das statische Gleichgewicht und die Bewegungsqualität des Gehens. Prä-Post-Effekte wurden für die gesamte Stichprobe und für jede Gruppe durch T-Tests und wenn Normalverteilung nicht gegeben war mit dem Wilcoxon-Vorzeichen-Rangtest errechnet. Für die Ermittlung der Wirkungsunterschiede der 3 Interventionen wurde eine Kovarianzanalyse mit zwei Kovariaten durchgeführt: (1) der jeweilige Prä-Interventionsparameter und (2) die Zeit zwischen Akutereignis und Studienbeginn. Für einzelne Messparameter waren die Vorbedingungen der Kovarianzanalyse nicht erfüllt, sodass stattdessen ein Kruskal-Wallis H Test durchgeführt wurde. Das Signifikanzniveau wurde auf p < 0,05 und für gruppenspezifische Prä-Post-Effekte auf p > 0,016 gesetzt. Effektstärken wurden mit Cohens d berechnet. Es wurden die Datensätze von 35 Patienten (RAS-LT: N = 11, LT: N = 13, NGB: N = 11) mit einem Alter von 63.6 ±8.6 Jahren, und mit einer Zeit zwischen Akutereignis und Beginn der Studie von 42.1 ±23.7 Tagen ausgewertet. In der statistischen Auswertung zeigten sich in der Nachuntersuchung stärkere Verbesserungen durch RAS-LT in der Kadenz (F(2,34) = 7.656, p = 0.002; partielles η2 = 0.338), wobei auch die Gruppenkontraste signifikante Unterschiede zugunsten von RAS-LT aufwiesen und eine Tendenz zu stärkerer Verbesserung in der Gehgeschwindigkeit (F(2,34) = 3.864, p = 0.032; partielles η2 = 0.205). Auch die Ergebnisse zur Schrittsymmetrie und zur Bewegungsqualität deuteten auf eine Überlegenheit des neuen Therapieansatzes RAS-LT hin, obgleich dort keine statistischen Signifikanzen im Gruppenvergleich erreicht wurden. Die Parameter Schrittlänge, Gehausdauer und die Werte zum statischen Gleichgewicht zeigten keine spezifischen Effekte von RAS-LT. Die Studie liefert erstmals Anhaltspunkte für eine klinische Überlegenheit von RAS-LT gegenüber den Standardtherapien. Die weitere Entwicklung und Beforschung dieses innovativen Therapieansatzes können in Zukunft zu einer verbesserten Gangrehabilitation von Patienten nach Schlaganfall beitragen. N2 - The majority of stroke patients suffer from disorders of walking ability. The treatment of the aftermaths of stroke is one of the most common indications for neurological rehabilitation. The focus is on the restoration of sensorimotor functions, in particular walking ability, and social participation. In Germany, gait rehabilitation after stroke often uses the neurodevelopmental treatment based on Bobath approach (NDT), which however is viewed critically in its effectiveness. Treatment guidelines recommend treadmill training (TT) first. For this therapy proof of action for improvements in walking speed and walking time are available. Also for rhythmic-auditory stimulation (RAS), the ground-level gait training with acoustic stimulation is comparable evidence for stroke patients. The aim of the study was to determine whether the use of RAS improves the efficacy of TT. The effects of 4 weeks of music-assisted treadmill training on gait rehabilitation of stroke patients were investigated. Special training music was developed for the combination therapy RAS with treadmill training (RAS-TT). This was adapted to the individual treadmill cadence of the patient and systematically increased in accordance with the belt speed. It was investigated whether RAS-TT leads to greater improvements in the ability to walk in stroke patients than the standard therapies NDT and TT. For this purpose, a clinical evaluation in the prospective randomized and controlled parallel group design was carried out with 45 patients after stroke. 45 patients with lower extremity hemiparesis or insecure and asymmetric gait were admitted in the acute phase after stroke. In 10 patients, the study was discontinued during the intervention phase, including 1 patient with an adverse event following the TT. The test battery used included static posturography and kinematic 2D gait analysis on the treadmill in addition to methods for determining walking performance such as Fast Gait Speed Test, 3-minute Walking Time Test and an apparatus gait analysis with the Bessou locometer. In extension of the previous study situation, this method was conceived and used for the first time for this research question and this patient collective. It enabled a differentiated and side-related assessment of the quality of movement. The primary endpoints of the study were the longitudinal gait parameters cadence, walking speed and stride length. Secondary endpoints included step symmetry, walking time, static balance, and walking quality of motion. Pre-post effects were calculated for the entire sample and for each group by T-tests and when normal distribution was not given, the Wilcoxon signed rank test was used. Covariance analysis with two covariates was performed to determine the differences in the effects of the three interventions: (1) the respective pre-intervention parameter and (2) the time between the acute event and the beginning of the study. For individual measurement parameters, the preconditions of the covariance analysis were not met, so that a Kruskal-Wallis H test was performed instead. The significance level was set to p <0.05 and for group-specific pre-post effects to p> 0.016. Effect sizes were calculated using Cohen's d. There were data from 35 patients (RAS-TT: N = 11, TT: N = 13, NDT: N = 11) with an age of 63.6 ± 8.6 years, and with a time between acute event and start of study of 42.1 ± Evaluated 23.7 days. In the post assessment, the RAS-TT showed greater improvements in the cadence (F (2,34) = 7,656, p = 0.002, partial η2 = 0.338), and the group contrasts showed significant differences in favor of RAS-TT and a tendency for greater improvement in walking speed (F (2.34) = 3.864, p = 0.032, partial η2 = 0.205). The results on step symmetry and on the quality of movement also indicated a superiority of the new therapeutic approach RAS-TT, although no statistical significance was achieved in the group comparisons. The parameters stride length, walking duration, and static equilibrium did not show any specific effects of RAS-TT. For the first time, the study provides evidence for clinical superiority of RAS-TT over standard therapies. Further development and research of this innovative therapeutic approach may contribute to improved gait rehabilitation of stroke patients in the future. KW - Schlaganfall Rehabilitation KW - Bewegungstraining KW - Musiktherapie KW - Musik KW - Gang KW - stroke rehabilitation KW - exercise movement techniques KW - music therapy KW - music KW - gait Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-430049 ER - TY - THES A1 - Meyer, Sven T1 - Wie ist liberale Eugenik möglich? T1 - How is liberal eugenics possible? BT - Menschenformung aus liberaler Perspektive und ihre Abgrenzung zur autoritären Eugenik BT - the shaping of human beings from a liberal perspective and differentiated from authoritarian eugenics N2 - Folgt tatsächlich aus einem liberalen Wertekanon eine generative Selbstbestimmung, eine weitgehende elterliche Handlungsfreiheit bei eugenischen Maßnahmen, wie es Vertreter einer „liberalen Eugenik“ versichern? Diese Arbeit diskutiert die Rolle Staates und die Handlungsspielräume der Eltern bei der genetischen Gestaltung von Nachkommen im Rahmen eines liberalen Wertverständnisses. Den Schwerpunkt/Fokus der Betrachtungen liegt hier Maßnahmen des genetic enhancement. Darüber hinaus wird auch das Verhältnis der „liberalen Eugenik“ zur „autoritären Eugenik“ neu beleuchtet. Die Untersuchung beginnt bei der Analyse zentraler liberaler Werte und Normen, wie Freiheit, Autonomie und Gerechtigkeit und deren Funktionen in der „liberalen Eugenik“. Wobei nur sehr eingeschränkt von der „liberalen Eugenik“ gesprochen werden kann, sondern viel mehr von Varianten einer „liberalen Eugenik“. Darüber hinaus wird in dieser Arbeit die historische Entwicklung der „liberalen“ und der „autoritären Eugenik“, speziell des Sozialdarwinismus, untersucht und verglichen, insbesondere im Hinblick auf liberale Werte und Normen und der generativen Selbstbestimmung. Den Kern der Arbeit bildet der Vergleich der „liberalen Eugenik“ mit der „liberalen Erziehung“. Da hier die grundlegenden Aufgaben der Eltern, aber auch des Staates, analysiert und deren Verhältnis diskutiert wird. Es zeigt sich, dass sich aus einem liberalen Wertverständnisses heraus keine umfangreiche generative Selbstbestimmung ableiten lässt, sondern sich viel mehr staatlich kontrollierte enge Grenzen bei eugenischen Maßnahmen zum Wohle der zukünftigen Person, begründen. Zudem wurde der Weg zur autoritären Eugenik nicht durch die Abkehr von der generativen Selbstbestimmung geebnet, sondern viel mehr durch die Übertragung des Fortschrittsgedankens auf den Menschen selbst. Damit verliert die generative Selbstbestimmung auch ihre Funktion als Brandmauer gegen eine autoritäre Eugenik. Nicht der Verlust der generativen Selbstbestimmung, sondern viel mehr die Idee der Perfektionierung des Menschen muss kritisch betrachtet und letztlich abgelehnt werden. Ohne generative Selbstbestimmung und einer Perfektionierung des Menschen, bleibt nur eine Basis-Eugenik, bei der die Entwicklungsfähigkeit des Menschen sichergestellt wird, nicht jedoch seine Verbesserung. Darüber hinaus muss auch über eine Entwicklungsmöglichkeit des zukünftigen Menschen gesprochen werden, d. h. ein minimales Potential zu gesellschaftlicher Integration muss gegeben sein. Nur wenn tatsächlich keine Möglichkeiten seitens der Gesellschaft bestehen eine Person zu integrieren und dieser eine Entwicklungsmöglichkeit zu bieten, wären eugenische Maßnahmen als letztes Mittel akzeptabel. N2 - Could reproductive autonomy, i.e. extensive parental freedom in making eugenic decisions, actually be deduced from liberal core values, as it is affirmed by advocates of "liberal eugenics"? My thesis discusses the role of the state as well as the scope of action that parents have with the genetic configuration of their descendant - within the framework of liberal values. Furthermore the relations between "liberal eugenics" and "authoritarian eugenics" are novelly examined. The first part of this research is concerned with an analysis of liberal core values and norms, like freedom, autonomy and justice and their functioning within "liberal eugenics". Yet, there is not just one limited version of "liberal eugenics", but rather there are variations of it. Additionally this thesis examines and compares the historical development of "liberal" and "authoritarian eugenics", specifically social darwinism, with particular regard to liberal values and norms as well as to reproductive autonomy. The essence of my thesis is a thorough comparison of "liberal eugenics" with "liberal education". As in this section the fundamental tasks of parenting as well as tasks of the state are being analysed and their relations to one another are being discussed. Thus, it can be concluded that no extensive reproductive autonomy can be deduced from a liberal set of values. But rather reasons for a more state-controlled and tightly restricted procedure of eugenic actions, for the good of the potential person, can be found. Furthermore, the way to authoritarian eugenics was not paved by a rejection of reproductive autonomy, but rather by applying the idea of progress onto the human being himself. Thereby reproductive autonomy also loses its function as a firewall against authoritarian eugenics. It is not the loss of reproductive autonomy that needs to be examined critically and eventually has to be rejected, but rather the idea of perfectioning man. Without reproductive autonomy and the intention to perfectioning man, only a basic eugenics remains, which merely ensures a development of man but not his improvement. Beyond that, opportunities for development of the potential person need to be ensured, i.e. at least a minimum potential for social integration needs to apply. If and only if society is incapable of integrating a person and and when it is not being able to provide him with opportunities for his development, only in such cases would eugenic actions be aceptable as an ultimate means. KW - liberale Eugenik KW - liberal eugenics KW - reproduktive Selbstbestimmung KW - genetic enhancement KW - Sozialdarwinismus Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77166 ER - TY - THES A1 - Müller, Anja T1 - Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur T1 - How children interpret sentences with nur? : Experiments on the acquisition of information structure N2 - Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert. N2 - Challenging previous accounts of children’s comprehension of focus particles, this study investigated how 6-year-old, German-speaking children interpret sentences with the focus particle nur(‘only’). Five experiments examined 1) whether the surface position of the focus particle has an impact on the sentence comprehension and 2) which role an adequate context plays for a target-like interpretation of a nur-sentence. It is known that in English, up to age 7, sentences with only are not interpreted adult-like. Crain et al. (1992) attributed errors to incorrect scope restrictions of the FP; Paterson et al. (2003) argued that children do not process the contrast information and instead ignore the FP. As oppose to previous research, the present data showed that German-speaking children interpret nur-sentences target-like if the sentences were contextually embedded. Furthermore, the results showed that children performed better on nur-object sentences like Die Maus hat nur einen Ball (‘The mouse has only a ball.’) than on nur-subject sentences like Nur die Maus hat einen Ball. (‘Only the mouse has a ball.’). This study argues that the asymmetry in the interpretation of nur-sentences stems from information-structural characteristics. In particular, I postulate the topic-default account which claims that children recognize the subject of the sentence as the topic by default. As a consequence, children assign an incorrect information structure to sentences with nur before the subject. Finally, based on the empirical findings of this study and on the topic-default account, an acquisition model for the comprehension of sentences with the focus particle nur is developed and discussed. KW - Fokuspartikel KW - Informationsstruktur KW - Spracherwerb KW - Satzverständnis KW - focus particle KW - information structure KW - language acquisition KW - sentence comprehension Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57767 ER - TY - THES A1 - Meiser, Susanne T1 - Wie dysfunktional sind Dysfunktionale Einstellungen? T1 - How dysfunctional are dysfunctional attitudes? BT - dysfunktionale Kognitionen und Depression im Kindes- und Jugendalter BT - dysfunctional cognitions and depression in children and adolescents N2 - Im kognitiven Vulnerabilitäts-Stress-Modell der Depression von A.T. Beck (1967, 1976) spielen dysfunktionale Einstellungen bei der Entstehung von Depression in Folge von erlebtem Stress eine zentrale Rolle. Diese Theorie prägt seit Jahrzehnten die ätiologische Erforschung der Depression, jedoch ist die Bedeutung dysfunktionaler Einstellungen im Prozess der Entstehung einer Depression insbesondere im Kindes- und Jugendalter nach wie vor unklar. Die vorliegende Arbeit widmet sich einigen in der bisherigen Forschung wenig behandelten Fragen. Diese betreffen u. a. die Möglichkeit nichtlinearer Effekte dysfunktionaler Einstellungen, Auswirkungen einer Stichprobenselektion, Entwicklungseffekte sowie die Spezifität etwaiger Zusammenhänge für eine depressive Symptomatik. Zur Beantwortung dieser Fragen wurden Daten von zwei Messzeitpunkten der PIER-Studie, eines großangelegten Längsschnittprojekts über Entwicklungsrisiken im Kindes- und Jugendalter, genutzt. Kinder und Jugendliche im Alter von 9 bis 18 Jahren berichteten zweimal im Abstand von ca. 20 Monaten im Selbstberichtsverfahren über ihre dysfunktionalen Einstellungen, Symptome aus verschiedenen Störungsbereichen sowie über eingetretene Lebensereignisse. Die Ergebnisse liefern Evidenz für ein Schwellenmodell, in dem dysfunktionale Einstellungen unabhängig von Alter und Geschlecht nur im höheren Ausprägungsbereich eine Wirkung als Vulnerabilitätsfaktor zeigen, während im niedrigen Ausprägungsbereich keine Zusammenhänge zur späteren Depressivität bestehen. Eine Wirkung als Vulnerabilitätsfaktor war zudem nur in der Subgruppe der anfänglich weitgehend symptomfreien Kinder und Jugendlichen zu beobachten. Das Schwellenmodell erwies sich als spezifisch für eine depressive Symptomatik, es zeigten sich jedoch auch (teilweise ebenfalls nichtlineare) Effekte dysfunktionaler Einstellungen auf die Entwicklung von Essstörungssymptomen und aggressivem Verhalten. Bei 9- bis 13-jährigen Jungen standen dysfunktionale Einstellungen zudem in Zusammenhang mit einer Tendenz, Stress in Leistungskontexten herbeizuführen. Zusammen mit den von Sahyazici-Knaak (2015) berichteten Ergebnissen aus der PIER-Studie weisen die Befunde darauf hin, dass dysfunktionale Einstellungen im Kindes- und Jugendalter – je nach betrachteter Subgruppe – Ursache, Symptom und Konsequenz der Depression darstellen können. Die in der vorliegenden Arbeit gezeigten nichtlinearen Effekte dysfunktionaler Einstellungen und die Effekte der Stichprobenselektion bieten eine zumindest teilweise Erklärung für die Heterogenität früherer Forschungsergebnisse. Insgesamt lassen sie auf komplexe – und nicht ausschließlich negative – Auswirkungen dysfunktionaler Einstellungen schließen. Für eine adäquate Beurteilung der „Dysfunktionalität“ der von A.T. Beck so betitelten Einstellungen erscheint daher eine Berücksichtigung der betrachteten Personengruppe, der absoluten Ausprägungen und der fraglichen Symptomgruppen geboten. N2 - In A. T. Beck´s prominent vulnerability-stress-model of depression (Beck 1967, 1976), dysfunctional attitudes represent the key vulnerability factor of depression. This theory has stimulated etiological research on depression for decades. However, the significance of dysfunctional attitudes for the emergence of depression in children and adolescents remains somewhat elusive. This dissertation addresses some questions unanswered by past studies, e.g. the possibility of nonlinear effects of dysfunctional attitudes, the impact of subject selection procedures, developmental effects and the specificity of dysfunctional attitudes for depressive symptomatology. These questions were examined using data from two measurement points of the PIER study, a large longitudinal project on developmental risks in childhood and adolescence. Children and adolescents aged 9 – 18 years reported dysfunctional attitudes, symptoms from various domains and stressful life events twice with a mean interval between assessments of 20 months. Results suggest a threshold model of cognitive vulnerability, in which only dysfunctional attitudes exceeding a certain threshold conferred vulnerability to depressive symptoms, while dysfunctional attitudes below the threshold were unrelated to future depressive symptoms. These effects were invariant across gender and age. Moreover, vulnerability effects of dysfunctional attitudes were observable in initially non-symptomatic participants only. The threshold model of dysfunctional attitudes turned out to be specific for the depressive symptom domain. However, relationships of different shapes were detected between dysfunctional attitudes and the development of aggressive and eating disorder symptoms. Moreover, dysfunctional attitudes in 9 – 13-year old boys predicted non-interpersonal stress generation. Along with evidence from the PIER study reported by Sahyazici-Knaak (2015), results suggest that dysfunctional attitudes in children and adolescents may represent a cause, symptom and consequence of depression, depending on the sub-population in question. The nonlinear effects of dysfunctional attitudes detected in this study might, at least in part, offer an explanation for the inconsistent results of past studies. In sum, findings of this dissertation suggest complex – and not exclusively negative - effects of dysfunctional attitudes. Thus, a judgement of the actual “dysfunctionality” of the “dysfunctional attitudes” proposed by A. T. Beck seems to require a close consideration of the absolute level of attitudes as well as the sub-population and symptom domains in question. KW - Depression KW - Ätiologie KW - Kognition KW - dysfunktionale Einstellungen KW - Kinder KW - Jugendliche KW - kognitive Vulnerabilität KW - depression KW - etiology KW - cognition KW - dysfunctional attitudes KW - children KW - adolescents KW - cognitive vulnerability Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412483 ER - TY - THES A1 - Haarmann, Stephan T1 - WICKR: A Joint Semantics for Flexible Processes and Data N2 - Knowledge-intensive business processes are flexible and data-driven. Therefore, traditional process modeling languages do not meet their requirements: These languages focus on highly structured processes in which data plays a minor role. As a result, process-oriented information systems fail to assist knowledge workers on executing their processes. We propose a novel case management approach that combines flexible activity-centric processes with data models, and we provide a joint semantics using colored Petri nets. The approach is suited to model, verify, and enact knowledge-intensive processes and can aid the development of information systems that support knowledge work. Knowledge-intensive processes are human-centered, multi-variant, and data-driven. Typical domains include healthcare, insurances, and law. The processes cannot be fully modeled, since the underlying knowledge is too vast and changes too quickly. Thus, models for knowledge-intensive processes are necessarily underspecified. In fact, a case emerges gradually as knowledge workers make informed decisions. Knowledge work imposes special requirements on modeling and managing respective processes. They include flexibility during design and execution, ad-hoc adaption to unforeseen situations, and the integration of behavior and data. However, the predominantly used process modeling languages (e.g., BPMN) are unsuited for this task. Therefore, novel modeling languages have been proposed. Many of them focus on activities' data requirements and declarative constraints rather than imperative control flow. Fragment-Based Case Management, for example, combines activity-centric imperative process fragments with declarative data requirements. At runtime, fragments can be combined dynamically, and new ones can be added. Yet, no integrated semantics for flexible activity-centric process models and data models exists. In this thesis, Wickr, a novel case modeling approach extending fragment-based Case Management, is presented. It supports batch processing of data, sharing data among cases, and a full-fledged data model with associations and multiplicity constraints. We develop a translational semantics for Wickr targeting (colored) Petri nets. The semantics assert that a case adheres to the constraints in both the process fragments and the data models. Among other things, multiplicity constraints must not be violated. Furthermore, the semantics are extended to multiple cases that operate on shared data. Wickr shows that the data structure may reflect process behavior and vice versa. Based on its semantics, prototypes for executing and verifying case models showcase the feasibility of Wickr. Its applicability to knowledge-intensive and to data-centric processes is evaluated using well-known requirements from related work. N2 - Traditionelle Prozessmodellierungssprachen sind auf hoch strukturierte Prozesse ausgelegt, in denen Daten nur eine Nebenrolle spielen. Sie eignen sich daher nicht für wissensintensive Prozesse, die flexibel und datengetrieben sind. Deshalb können prozessorientierte Informationssysteme Fachexperten nicht gänzlich unterstützen. Diese Arbeit beinhaltet eine neue Modellierungssprache, die flexible Prozessmodelle mit Datenmodellen kombiniert. Die Semantik dieser Sprache ist mittels gefärbten Petri-Netzen formal definiert. Wissensintensive Prozesse können so modelliert, verifiziert und ausgeführt werden. Wissensintensive Prozesse sind variantenreich und involvieren Fachexperten, die mit ihren Entscheidungen die Prozessausführung prägen. Typische Anwendungsbereiche sind das Gesundheitswesen, Rechtswesen und Versicherungen. Diese Prozesse können i.d.R. nicht vollständig spezifiziert werden, da das zugrundeliegende Wissen zu umfangreich ist und sich außerdem zu schnell verändert. Die genaue Reihenfolge der Aktivitäten wird erst durch die Fachexperten zur Laufzeit festgelegt. Deshalb erfordern dieser Prozesse Flexibilität sowohl zur Entwurfszeit wie zur Laufzeit, Daten und Verhalten müssen in enger Beziehung betrachtet werden. Zudem muss es möglich sein, den Prozess anzupassen, falls eine unvorhergesehene Situation eintreten. Etablierte Prozessmodellierungssprachen, wie z.B. BPMN, sind daher ungeeignet. Deshalb werden neue Sprachen entwickelt, in denen sich generell zwei Tendenzen beobachten lassen: ein Wechseln von imperativer zu deklarativer Modellierung und eine zunehmende Integration von Daten. Im Fragment-Basierten-Case-Management können imperative Prozessfragmente zur Laufzeit flexibel kombiniert werden, solange spezifizierten Datenanforderungen erfüllt sind. In dieser Arbeit wird Wickr vorgestellt. Dabei handelt es sich um eine Modellierungssprache, die das Fragment-Basierte-Case-Management erweitert. Wickr kombiniert Prozessfragmente mit einem Datenmodell inklusive Assoziationen und zwei Arten an Multiplizitätseinschränkungen: Die erste Art muss immer gelten, wohingegen die zweite nur am Ende eines Falls gelten muss. Zusätzlich unterstützt Wickr Stapelverarbeitung und Datenaustausch zwischen Fällen. Des Weiteren entwickeln wir eine translationale Semantik, die Wickr in gefärbte Petri-Netze übersetzt. Die Semantik berücksichtigt sowohl die Vorgaben des Prozessmodells wie auch die des Datenmodells. Die Semantik eignet sich nicht nur für die Beschreibung eines einzelnen Falls, sondern kann auch mehrere untereinander in Beziehung stehende Fälle abdecken. Durch Prototypen wird die Umsetzbarkeit von Wickr demonstriert und mittels bekannten Anforderungslisten die Einsatzmöglichkeit für wissensintensive und datengetriebene Prozesse evaluiert. T2 - Wickr: Eine gemeinsame Semantik für flexible Prozesse und Daten KW - Case Management KW - Business Process Management KW - Process Modeling KW - Data Modeling KW - Execution Semantics KW - Geschäftsprozessmanagement KW - Fallmanagement KW - Datenmodellierung KW - Ausführungssemantiken KW - Prozessmodellierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546137 ER - TY - THES A1 - Kroll, Alexander T1 - Why public managers use performance information : concepts, theory, and empirical analysis T1 - Warum Verwaltungsmanager Performance-Informationen nutzen : Konzepte, Theorien und Empirische Analyse N2 - Diese Dissertation untersucht die Verwendung von Performance-Informationen („Kennzahlen“) durch Führungskräfte in der öffentlichen Verwaltung. Unter „Verwendung“ wird dabei die zweckorientierte Nutzung der Daten verstanden, um zu steuern, zu lernen und öffentliche Leistungen zu verbessern. Die zentrale Frage der Arbeit lautet: Wie können Unterschiede bei der Verwendung von Performance-Informationen erklärt werden? Um diese Frage zu beantworten, wird die bereits existierende Literatur strukturiert ausgewertet. Forschungslücken werden aufgezeigt und eigene Ansätze vorgestellt, wie diese geschlossen werden können. Der erste Teil der Dissertation untersucht den Einfluss von Manager-bezogenen Faktoren auf die Nutzung von Performance-Daten, die bislang in der Forschung noch keine Berücksichtigung gefunden haben. Der zweite Abschnitt testet ein modifiziertes Modell aus der Psychologie, das auf der Annahme basiert, dass die Verwendung von Performance-Informationen ein bewusstes und durchdachtes Verhalten darstellt. Der dritte Teil untersucht, inwieweit sich die Erklärungen für die Nutzung von Performance-Informationen unterscheiden, wenn wir diese nicht nur als Kennzahlen definieren, sondern ebenfalls andere Quellen von „unsystematischem“ Feedback berücksichtigen. Die empirischen Ergebnisse der Arbeit basieren auf einer Umfrage aus dem Jahr 2011. Im Rahmen dieses Surveys habe ich die mittleren Manager (Amtsleiter und Fachbereichsleiter) aus acht ausgewählten Bereichen aller kreisfreien Städte in Deutschland befragt (n=954). Zur Auswertung der Daten wurden die Verfahren Faktorenanalyse, Multiple Regressionsanalyse und Strukturgleichungsmodellierung eingesetzt. Meine Forschung förderte unter anderem vier Erkenntnisse zu Tage, die durch ähnliche Befunde der verschiedenen Teile der Dissertation abgesichert sind: 1) Die Verwendung von Performance-Daten kann als bewusstes Verhalten von Führungskräften modelliert werden, das durch deren Einstellung sowie durch die Einstellung ihres sozialen Umfeldes bestimmt wird. 2) Häufige Nutzer von Performance-Informationen zeigen überraschenderweise keine generelle Präferenz für das abstrakt-analytische Verarbeiten von Informationen. Stattdessen bevorzugen sie, Informationen durch persönliche Interaktionen aufzunehmen. 3) Manager, die sich früh im Rahmen der Ermittlung von Performance-Informationen engagieren, nutzen diese später auch häufiger, um Entscheidungen zu treffen. 4) Performance-Berichte sind nur eine Informationsquelle unter vielen. Verwaltungsmanager präferieren verbales Feedback von Insidern sowie das Feedback von wichtigen externen Stakeholdern gegenüber systematischen Performance-Daten. Die Dissertation erklärt diese Befunde theoretisch und verdeutlicht deren Implikationen für Theorie und Praxis. N2 - The dissertation examines the use of performance information by public managers. “Use” is conceptualized as purposeful utilization in order to steer, learn, and improve public services. The main research question is: Why do public managers use performance information? To answer this question, I systematically review the existing literature, identify research gaps and introduce the approach of my dissertation. The first part deals with manager-related variables that might affect performance information use but which have thus far been disregarded. The second part models performance data use by applying a theory from social psychology which is based on the assumption that this management behavior is conscious and reasoned. The third part examines the extent to which explanations of performance information use vary if we include others sources of “unsystematic” feedback in our analysis. The empirical results are based on survey data from 2011. I surveyed middle managers from eight selected divisions of all German cities with county status (n=954). To analyze the data, I used factor analysis, multiple regression analysis, and structural equation modeling. My research resulted in four major findings: 1) The use of performance information can be modeled as a reasoned behavior which is determined by the attitude of the managers and of their immediate peers. 2) Regular users of performance data surprisingly are not generally inclined to analyze abstract data but rather prefer gathering information through personal interaction. 3) Managers who take on ownership of performance information at an early stage in the measurement process are also more likely to use this data when it is reported to them. 4) Performance reports are only one source of information among many. Public managers prefer verbal feedback from insiders and feedback from external stakeholders over systematic performance reports. The dissertation explains these findings using a deductive approach and discusses their implications for theory and practice. KW - Performance KW - Datenverwendung KW - Performance-Informationen KW - Performance Management KW - performance KW - data use KW - performance information KW - performance management Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59795 ER - TY - THES A1 - Verch, Ronald T1 - Whole-body electrical muscle stimulation superimposed walking as training tool in the management of type 2 diabetes mellitus T1 - Elektrische Ganzkörpermuskelstimulation überlagertes Gehen als Trainingsinstrument bei der Behandlung von Diabetes mellitus Typ 2 N2 - Background: The worldwide prevalence of diabetes has been increasing in recent years, with a projected prevalence of 700 million patients by 2045, leading to economic burdens on societies. Type 2 diabetes mellitus (T2DM), representing more than 95% of all diabetes cases, is a multifactorial metabolic disorder characterized by insulin resistance leading to an imbalance between insulin requirements and supply. Overweight and obesity are the main risk factors for developing type 2 diabetes mellitus. The lifestyle modification of following a healthy diet and physical activity are the primary successful treatment and prevention methods for type 2 diabetes mellitus. Problems may exist with patients not achieving recommended levels of physical activity. Electrical muscle stimulation (EMS) is an increasingly popular training method and has become in the focus of research in recent years. It involves the external application of an electric field to muscles, which can lead to muscle contraction. Positive effects of EMS training have been found in healthy individuals as well as in various patient groups. New EMS devices offer a wide range of mobile applications for whole-body electrical muscle stimulation (WB-EMS) training, e.g., the intensification of dynamic low-intensity endurance exercises through WB-EMS. This dissertation project aims to investigate whether WB-EMS is suitable for intensifying low-intensive dynamic exercises such as walking and Nordic walking. Methods: Two independent studies were conducted. The first study aimed to investigate the reliability of exercise parameters during the 10-meter Incremental Shuttle Walk Test (10MISWT) using superimposed WB-EMS (research question 1, sub-question a) and the difference in exercise intensity compared to conventional walking (CON-W, research question 1, sub-question b). The second study aimed to compare differences in exercise parameters between superimposed WB-EMS (WB-EMS-W) and conventional walking (CON-W), as well as between superimposed WB-EMS (WB-EMS-NW) and conventional Nordic walking (CON-NW) on a treadmill (research question 2). Both studies took place in participant groups of healthy, moderately active men aged 35-70 years. During all measurements, the Easy Motion Skin® WB-EMS low frequency stimulation device with adjustable intensities for eight muscle groups was used. The current intensity was individually adjusted for each participant at each trial to ensure safety, avoiding pain and muscle cramps. In study 1, thirteen individuals were included for each sub question. A randomized cross-over design with three measurement appointments used was to avoid confounding factors such as delayed onset muscle soreness. The 10MISWT was performed until the participants no longer met the criteria of the test and recording five outcome measures: peak oxygen uptake (VO2peak), relative VO2peak (rel.VO2peak), maximum walk distance (MWD), blood lactate concentration, and the rate of perceived exertion (RPE). Eleven participants were included in study 2. A randomized cross-over design in a study with four measurement appointments was used to avoid confounding factors. A treadmill test protocol at constant velocity (6.5 m/s) was developed to compare exercise intensities. Oxygen uptake (VO2), relative VO2 (rel.VO2) blood lactate, and the RPE were used as outcome variables. Test-retest reliability between measurements was determined using a compilation of absolute and relative measures of reliability. Outcome measures in study 2 were studied using multifactorial analyses of variances. Results: Reliability analysis showed good reliability for VO2peak, rel.VO2peak, MWD and RPE with no statistically significant difference for WB-EMS-W during 10WISWT. However, differences compared to conventional walking in outcome variables were not found. The analysis of the treadmill tests showed significant effects for the factors CON/WB-EMS and W/NW for the outcome variables VO2, rel.VO2 and lactate, with both factors leading to higher results. However, the difference in VO2 and relative VO2 is within the range of biological variability of ± 12%. The factor combination EMS∗W/NW is statistically non-significant for all three variables. WB-EMS resulted in the higher RPE values, RPE differences for W/NW and EMS∗W/NW were not significant. Discussion: The present project found good reliability for measuring VO2peak, rel. VO2peak, MWD and RPE during 10MISWT during WB-EMS-W, confirming prior research of the test. The test appears technically limited rather than physiologically in healthy, moderately active men. However, it is unsuitable for investigating differences in exercise intensities using WB-EMS-W compared to CON-W due to different perceptions of current intensity between exercise and rest. A treadmill test with constant walking speed was conducted to adjust individual maximum tolerable current intensity for the second part of the project. The treadmill test showed a significant increase in metabolic demands during WB-EMS-W and WB-EMS-NW by an increased VO2 and blood lactate concentration. However, the clinical relevance of these findings remains debatable. The study also found that WB-EMS superimposed exercises are perceived as more strenuous than conventional exercise. While in parts comparable studies lead to higher results for VO2, our results are in line with those of other studies using the same frequency. Due to the minor clinical relevance the use of WB-EMS as exercise intensification tool during walking and Nordic walking is limited. High device cost should be considered. Habituation to WB-EMS could increase current intensity tolerance and VO2 and make it a meaningful method in the treatment of T2DM. Recent figures show that WB-EMS is used in obese people to achieve health and weight goals. The supposed benefit should be further investigated scientifically. N2 - Hintergrund: Die weltweite Prävalenz von Diabetes hat in den letzten Jahren zugenommen. Bis zum Jahr 2045 wird mit einer Prävalenz von 700 Millionen Patienten gerechnet, was zu einer wirtschaftlichen Belastung für die Gesellschaft führt. Diabetes mellitus Typ 2, der mehr als 95 % aller Diabetesfälle ausmacht, ist eine multifaktorielle Stoffwechselstörung, die durch Insulinresistenz gekennzeichnet ist und zu einem Ungleichgewicht zwischen Insulinbedarf und -angebot führt. Übergewicht und Adipositas sind die Hauptrisikofaktoren für die Entwicklung von Diabetes mellitus Typ 2. Die Änderung des Lebensstils durch eine gesunde Ernährung und körperliche Aktivität ist die wichtigste und erfolgreichste Behandlungs- und Präventionsmethode für Diabetes mellitus Typ 2. Probleme können bei den Patienten bestehen, den empfohlenen Umfang an körperlicher Aktivität zu erreichen. Die elektrische Muskelstimulation (EMS) ist eine zunehmend beliebte Trainingsmethode, die in den letzten Jahren in den Mittelpunkt der Forschung gerückt ist. Dabei wird von außen ein elektrisches Feld an die Muskeln angelegt, was zu einer Muskelkontraktion führen kann. Positive Effekte des EMS-Trainings wurden sowohl bei gesunden Personen als auch in verschiedenen Patientengruppen gefunden. Neue EMS-Geräte bieten eine breite Palette mobiler Anwendungen für das Ganzkörper-EMS-Training (WB-EMS), z.B. die Intensivierung von dynamischen Ausdauerübungen mit niedriger Intensität durch WB-EMS. In diesem Dissertationsprojekt soll untersucht werden, ob die WB-EMS zur Intensivierung von dynamischen Übungen mit geringer Intensität wie Walking und Nordic Walking geeignet ist. Methodik: Zwei unabhängige Studien wurden durchgeführt. In der ersten Studie wurden die Zuverlässigkeit von Belastungsparametern während des 10-Meter-Inkremental-Penlde-Gehtests (10MISWT) unter Verwendung von überlagertem WB-EMS (Forschungsfrage 1, Unterfrage a) und der Unterschied in der Belastungsintensität zum konventionellen Gehen (Forschungsfrage 1, Unterfrage b) untersucht. Die zweite Studie beschäftigte sich mit Unterschieden in Belastungsparametern zwischen überlagertem WB-EMS (WB-EMS-W) und konventionellem Gehen (CON-W) sowie zwischen überlagertem WB-EMS (WB-EMS-NW) und konventionellem Nordic Walking (CON-NW) auf einem Laufband zu vergleichen (Forschungsfrage 2). Beide Studien wurden an Teilnehmergruppen von gesunden, mäßig aktiven Männern im Alter von 35-70 Jahren durchgeführt. Bei allen Messungen wurde das Niederfrequenz-Stimulationsgerät Easy Motion Skin® für WB-EMS mit einstellbaren Intensitäten für acht Muskelgruppen verwendet. Um die Sicherheit zu gewährleisten und Schmerzen und Muskelkrämpfe zu vermeiden, wurde die Stromintensität für jeden Teilnehmer bei jedem Versuch individuell angepasst. In Studie 1 wurden dreizehn Personen für jede Unterfrage einbezogen. Es wurde ein randomisiertes Cross-over-Design mit drei Messterminen verwendet, um Störfaktoren wie z. B. einen verzögert einsetzenden Muskelkater zu vermeiden. Der 10MISWT wurde so lange durchgeführt, bis die Teilnehmer die Kriterien des Tests, das Erreichen des Kegels bis zum nächsten akustischen Signal, nicht mehr erfüllten. Fünf Ergebnisgrößen erfasst wurden: Spitzenwertmessung der Sauerstoffaufnahme (VO2peak), relative VO2peak (rel.VO2peak), maximale Gehstrecke (MWD), Blutlaktatkonzentration und der Grad der wahrgenommenen Anstrengung (RPE). Elf Teilnehmer wurden in Studie 2 eingeschlossen. Um Störfaktoren zu vermeiden, wurde ein randomisiertes Cross-over-Design in einer Studie mit vier Messterminen verwendet. Es wurde ein Laufbandtestprotokoll mit konstanter Geschwindigkeit (6,5 m/s) entwickelt, um die Belastungsintensitäten zu vergleichen. Sauerstoffaufnahme (VO2), relative VO2 (rel. VO2), Blutlaktat und der RPE wurden als Ergebnisvariablen verwendet. Die Test-Retest-Reproduzierbarkeit zwischen den Messungen wurde anhand einer Zusammenstellung absoluter und relativer Zuverlässigkeitsmaße ermittelt. Die Ergebnisgrößen in Studie 2 wurden mit Hilfe multifaktorieller Varianzanalysen untersucht. Ergebnisse: Die Reliabilitätsanalyse zeigte eine gute Zuverlässigkeit für VO2peak, rel.VO2peak, MWD und RPE ohne statistisch signifikanten Unterschied für das WB-EMS überlagerte Gehen zwischen den beiden Messungen während des 10WISWT. Es wurden jedoch keine Unterschiede bei den Ergebnisvariablen im Vergleich zum konventionellen Gehen festgestellt. Die Analyse der Laufbandtests zeigte signifikante Effekte für die Faktoren CON/WB-EMS und W/NW für die Ergebnisvariablen VO2, rel.VO2 und Laktat, wobei beide Faktoren zu höheren Ergebnissen führten. Der Unterschied bei VO2 und rel.VO2 liegt jedoch im Bereich der biologischen Variabilität von ± 12 %. Die Faktorenkombination EMS∗W/NW ist für alle drei Variablen statistisch nicht signifikant. WB-EMS führte zu den höheren RPE-Werten, die RPE-Unterschiede für W/NW und EMS∗W/NW waren nicht signifikant. Diskussion: Das vorliegende Projekt ergab eine gute Zuverlässigkeit bei der Messung von VO2peak, rel.VO2peak, MWD und RPE während des 10MISWT mit WB-EMS-Überlagerung beim Gehen, was frühere Untersuchungen zu diesem Test bestätigen. Der Test scheint bei gesunden, mäßig aktiven Männern eher technisch als physiologisch begrenzt zu sein. Er ist jedoch ungeeignet für die Untersuchung von Unterschieden in der Belastungsintensität bei überlagertem WB-EMS im Vergleich zum herkömmlichen Gehen, da die Stromstärkenintensität des WB-EMS zwischen Belastung und Ruhe unterschiedlich wahrgenommen wird. Für den zweiten Teil des Projekts wurde ein Laufbandtest mit konstanter Gehgeschwindigkeit durchgeführt, um die individuell maximal tolerierbare Stromintensität während der Belastung einzustellen. Der Laufbandtest zeigte eine signifikante Erhöhung der metabolischen Anforderungen während des WB-EMS überlagerten Gehens und des Nordic Walking durch eine erhöhte VO2 und Blutlaktatkonzentration. Die klinische Relevanz dieser Ergebnisse bleibt jedoch umstritten. Die Studie ergab auch, dass WB-EMS-überlagerte Übungen als anstrengender empfunden werden als konventionelle Übungen. Während vergleichbare Studien zum Teil zu höheren VO2-Werten führen, stimmen unsere Ergebnisse mit denen anderer Studien überein, welche dieselbe Stromfrequenz verwenden. Aufgrund der bisher fehlenden klinischen Relevanz ist der Einsatz von WB-EMS zur Trainingsintensivierung beim Gehen und Nordic Walking begrenzt. Die hohen Gerätekosten sollten berücksichtigt werden. Die Gewöhnung an WB-EMS könnte die Toleranz gegenüber der aktuellen Intensität erhöhen, die VO2 weiter steigern und es zu einer sinnvollen Methode für die Behandlung von T2DM machen. Jüngste Zahlen zeigen, dass WB-EMS bei adipösen Menschen eingesetzt wird, um Gesundheits- und Gewichtsziele zu erreichen, der vermeintliche Nutzen sollte wissenschaftlich weiter untersucht werden. KW - whole-body electrical muscle stimulation KW - walking KW - type 2 diabetes mellitus KW - Diabetes mellitus Typ 2 KW - Gehen KW - elektrische Ganzkörpermuskelstimulation Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-634240 ER - TY - THES A1 - Jacob, Karen T1 - Who are the Bene Israel from India? T1 - Wer sind die Bene Israel aus Indien? N2 - This study explores the identity of the Bene Israel caste from India and its assimilation into Israeli society. The large immigration from India to Israel started in the early 1950s and continued until the early 1970s. Initially, these immigrants struggled hard as they faced many problems such as the language barrier, cultural differences, a new climate, geographical isolation, and racial discrimination. This analysis focuses on the three major aspects of the integration process involving the Bene Israel: economic, socio-cultural and political. The study covers the period from the early fifties to the present. I will focus on the origin of the Bene Israel, which has evolved after their immigration to Israel; from a Hindu–Muslim lifestyle and customs they integrated into the Jewish life of Israel. Despite its ethnographic nature, this study has theological implications as it is an encounter between Jewish monotheism and Indian polytheism. All the western scholars who researched the Bene Israel community felt impelled to rely on information received by community members themselves. No written historical evidence recorded Bene Israel culture and origin. Only during the nineteenth century onwards, after the intrusion of western Jewish missionaries, were Jewish books translated into Marathi . Missionary activities among the Bene Israel served as a catalyst for the Bene Israel themselves to investigate their historical past . Haeem Samuel Kehimkar (1830-1908), a Bene Israel teacher, wrote notes on the history of the Bene Israel in India in Marathi in 1897. Brenda Ness wrote in her dissertation: The results [of the missionary activities] are several works about the community in English and Marathi by Bene-Israel authors which have appeared during the last century. These are, for the most part, not documented; they consist of much theorizing on accepted tradition and tend to be apologetic in nature. There can be no philosophical explanation or rational justification for an entire community to leave their motherland India, and enter into a process of annihilation of its own free will. I see this as a social and cultural suicide. In craving for a better future in Israel, the Indian Bene Israel community pays an enormously heavy price as a people that are today discarded by the East and disowned by the West: because they chose to become something that they never were and never could be. As it is written, “know where you came from, and where you are going.” A community with an ancient history from a spiritual culture has completely lost its identity and self-esteem. In concluding this dissertation, I realize the dilemma with which I have confronted the members of the Bene Israel community which I have reviewed after strenuous and constant self-examination. I chose to evolve the diversifications of the younger generations urges towards acceptance, and wish to clarify my intricate analysis of this controversial community. The complexity of living in a Jewish State, where citizens cannot fulfill their basic desires, like matrimony, forced an entire community to conceal their true identity and perjure themselves to blend in, for the sake of national integration. Although scholars accepted their new claims, the skepticism of the rabbinate authorities prevails, and they refuse to marry them to this day, suspecting they are an Indian caste. N2 - In dieser Studie wird versucht, die Identität der indischen Kaste der Bene Israel und ihre Assimilation in die israelische Gesellschaft zu untersuchen. Die große Einwanderung aus Indien nach Israel begann in den frühen 1950er Jahren und dauerte bis Anfang der 1970er Jahre. Anfangs hatten diese Einwanderer mit vielen Problemen zu kämpfen, wie z. B. der Sprachbarriere, der Kultur, dem Klima, der geografischen Isolation und der Rassendiskriminierung. Diese Analyse konzentriert sich auf die drei Hauptaspekte des Integrationsprozesses der Bene Israel: wirtschaftlich, soziokulturell und politisch. Die Studie erstreckt sich über den Zeitraum von den frühen fünfziger Jahren bis zur Gegenwart. Ich werde mich auf die Herkunft der Bene Israel konzentrieren, die sich nach ihrer Einwanderung nach Israel von einem hinduistisch-muslimischen Lebensstil und Bräuchen, die sie in das jüdische Leben in Israel integriert haben, entfremdet haben. Trotz ihres ethnographischen Charakters hat diese Studie theologische Implikationen, da sie eine Begegnung zwischen dem jüdischen Monotheismus und dem indischen Polytheismus darstellt. Alle westlichen Wissenschaftler, die sich mit der Gemeinde Bene Israel befasst haben, waren auf Informationen angewiesen, die sie von den Gemeindemitgliedern selbst erhielten. Es gab keine schriftlichen historischen Zeugnisse über ihre Kultur und Herkunft. Erst im neunzehnten Jahrhundert, nach dem Eindringen westlicher jüdischer Missionare, wurden jüdische Bücher ins Marathi übersetzt. Die missionarischen Aktivitäten unter den Bene Israel dienten als Katalysator für die Bene Israel selbst, um ihre historische Vergangenheit zu erforschen. Haeem Samuel Kehimkar (1830-1908), ein Lehrer der Bene Israel, schrieb 1897 Aufzeichnungen über die Geschichte der Bene Israel in Indien in Marathi. Brenda Ness schrieb in ihrer Dissertation: Die Ergebnisse [der missionarischen Aktivitäten] sind mehrere Werke über die Gemeinschaft in Englisch und Marathi von Bene-Israel-Autoren, die im letzten Jahrhundert erschienen sind. Diese sind größtenteils nicht dokumentiert; sie bestehen aus vielen Theorien über die akzeptierte Tradition und sind eher apologetischer Natur. Es gibt keine philosophische Erklärung oder rationale Rechtfertigung dafür, dass eine ganze Gemeinschaft ihr Mutterland Indien verlässt und sich aus freien Stücken in einen Prozess der Vernichtung begibt. Ich betrachte dies als einen sozialen und kulturellen Selbstmord. In ihrem Streben nach einer besseren Zukunft in Israel zahlt die indische Bene Israel-Gemeinschaft einen enorm hohen Preis als ein Volk, das heute vom Osten verworfen und vom Westen verleugnet wird: weil sie sich entschieden hat, etwas zu werden, das sie nie war und nie sein konnte. Wie es geschrieben steht: "Wisse, woher du kommst, und wohin du gehst". Eine Gemeinschaft mit einer alten Geschichte aus einer spirituellen Kultur hat ihre Identität und ihr Selbstwertgefühl völlig verloren. Zum Abschluss dieser Dissertation wird mir das Dilemma bewusst, mit dem ich die Mitglieder der Gemeinschaft Bene Israel konfrontiert habe und das ich nach anstrengender und ständiger Selbstbeobachtung überprüft habe. Ich habe mich dafür entschieden, die Diversifizierungen der jüngeren Generationen in Richtung Akzeptanz weiterzuentwickeln, und möchte meine komplexe Analyse dieser kontroversen Gemeinschaft verdeutlichen. Die Komplexität des Lebens in einem jüdischen Staat, in dem die Bürger ihre grundlegenden Wünsche, wie die Ehe, nicht erfüllen können, zwang eine ganze Gemeinschaft, ihre wahre Identität zu verbergen und einen Meineid zu leisten, um sich um der nationalen Integration willen anzupassen. Obwohl die Gelehrten ihre neuen Ansprüche akzeptierten, überwiegt die Skepsis der Rabbinatsbehörden, die sich bis heute weigern, sie zu verheiraten, da sie sie für eine indische Kaste halten. KW - Bene Israel KW - Bene Israel KW - Indian caste KW - Indischen Kaste KW - racial discrimination KW - Rassendiskriminierung KW - Jewish State KW - Jüdischer Staat Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-554508 ER - TY - THES A1 - Itonaga, Naomi T1 - White storks (Ciconia ciconia) of Eastern Germany: age-dependent breeding ability, and age- and density-dependent effects on dispersal behavior T1 - Der Weißstorch (Ciconia ciconia) aus dem östlichen Deutschland: altersabhängiges Reproduktionsvermögen und alters- und bestandsdichteabhängiges Ausbreitungsverhalten N2 - Dispersal behavior plays an important role for the geographical distribution and population structure of any given species. Individual’s fitness, reproductive and competitive ability, and dispersal behavior can be determined by the age of the individual. Age-dependent as well as density-dependent dispersal patterns are common in many bird species. In this thesis, I first present age-dependent breeding ability and natal site fidelity in white storks (Ciconia ciconia); migratory birds breeding in large parts of Europe. I predicted that both the proportion of breeding birds and natal site fidelity increase with the age. After the seventies of the last century, following a steep population decline, a recovery of the white stork population has been observed in many regions in Europe. Increasing population density in the white stork population in Eastern Germany especially after 1983 allowed examining density- as well as age-dependent breeding dispersal patterns. Therefore second, I present whether: young birds show more often and longer breeding dispersal than old birds, and frequency of dispersal events increase with the population density increase, especially in the young storks. Third, I present age- and density-dependent dispersal direction preferences in the give population. I asked whether and how the major spring migration direction interacts with dispersal directions of white storks: in different age, and under different population densities. The proportion of breeding individuals increased in the first 22 years of life and then decreased suggesting, the senescent decay in aging storks. Young storks were more faithful to their natal sites than old storks probably due to their innate migratory direction and distance. Young storks dispersed more frequently than old storks in general, but not for longer distance. Proportion of dispersing individuals increased significantly with increasing population densities indicating, density- dependent dispersal behavior in white storks. Moreover, the finding of a significant interaction effects between the age of dispersing birds and year (1980–2006) suggesting, older birds dispersed more from their previous nest sites over time due to increased competition. Both young and old storks dispersed along their spring migration direction; however, directional preferences were different in young storks and old storks. Young storks tended to settle down before reaching their previous nest sites (leading to the south-eastward dispersal) while old birds tended to keep migrating along the migration direction after reaching their previous nest sites (leading to the north-westward dispersal). Cues triggering dispersal events may be age-dependent. Changes in the dispersal direction over time were observed. Dispersal direction became obscured during the second half of the observation period (1993–2006). Increase in competition may affect dispersal behavior in storks. I discuss the potential role of: age for the observed age-dependent dispersal behavior, and competition for the density dependent dispersal behavior. This Ph.D. thesis contributes significantly to the understanding of population structure and geographical distribution of white storks. Moreover, presented age- and density (competition)-dependent dispersal behavior helps understanding underpinning mechanisms of dispersal behavior in bird species. N2 - Das Verständnis der Mechanismen, die dem Ausbreitungsverhalten und der Wahl des Neststandorts zugrunde liegen, gibt wichtige Einsichten in Strukturen und Dynamiken von Tierpopulationen. Der Gesundheitszustand, die Produktivität und Konkurrenzfähigkeit sowie das Ausbreitungsverhalten eines Individuums können über das Alter ermittelt werden. Alters- und dichteabhängige Veränderungen in Verbreitungsmustern kommen bei vielen Vogelarten vor. In der vorliegenden Studie untersuchten wir zunächst den Effekt des Alters auf die Reproduktivität, auf die Wahl des Neststandorts sowie auf die Geburtsorttreue des Weißstorchs (Ciconia ciconia). Wir fragten, ob sowohl der Anteil der brütenden Individuen als auch die Geburtsorttreue mit dem Alter zunimmt. Weißstörche sind Zugvögel, die während der Migration zumeist segelnd die Thermik nutzen und in weiten Teilen Europas brüten. Nach einem starken Bestandsrückgang konnte in vielen Regionen Europas ab den 1970er Jahren wieder ein positiver Trend in der Populationsentwicklung beobachtet werden. Die zunehmende Populationsdichte, besonders nach 1983 in der ostziehenden Subpopulation in den fünf Bundesländern der ehemaligen DDR, erlaubte die Analyse von dichte- und altersabhängigen Präferenzen in der Richtung der Brutstandorte sowie in der Verbreitungsfrequenz und -distanz. Wir untersuchten zudem die Alters- und Dichteabhängigkeit der Ausbreitungsrichtung einer Teilpopulation. Wir fragten, ob und wie die Hauptzugrichtung im Frühjahr mit der Verbreitungsrichtung interagiert: Beeinflussen Alter und Populationsdichte die Ausbreitungsrichtung? Der Anteil der brütenden Individuen, die älter als 22 Jahre sind, nahm innerhalb der beobachteten Teilpopulation ab, vermutlich aufgrund einer altersbedingten Abnahme des Gesundheitszustands. Junge Vögel zeigten eine starke Geburtsorttreue, was auf eine genetische Komponente in den Zugmustern junger Störche hinweist. Generell trat bei jungen Störchen häufiger Ausbreitungsverhalten auf als bei älteren Störchen. Eine signifikante Zunahme der Ausbreitungsdistanz von Individuen über die Zeit lässt auf eine dichteabhängige Komponente im Ausbreitungsverhalten der Weißstörche schließen. Weiterhin wurde eine signifikante Interaktion zwischen dem Alter sich ausbreitender Individuen und dem betrachteten Jahr gefunden. Demzufolge breiteten sich alte Vögel über die Zeit über größere Distanzen aus, vermutlich um der ansteigenden Konkurrenz, bedingt durch den wachsenden Bestandsdruck, zu entgehen. KW - Weißstorch KW - Altersabhängigkeit KW - Dichteabhängigkeit KW - Ausbreitungsverhalten KW - Reproduktivität KW - White stork KW - age-dependent KW - density-dependent KW - dispersal behavior KW - breeding ability Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-39052 ER - TY - THES A1 - Lorey, Johannes T1 - What's in a query : analyzing, predicting, and managing linked data access T1 - Was ist in einer Anfrage : Analyse, Vorhersage und Verwaltung von Zugriffen auf Linked Data N2 - The term Linked Data refers to connected information sources comprising structured data about a wide range of topics and for a multitude of applications. In recent years, the conceptional and technical foundations of Linked Data have been formalized and refined. To this end, well-known technologies have been established, such as the Resource Description Framework (RDF) as a Linked Data model or the SPARQL Protocol and RDF Query Language (SPARQL) for retrieving this information. Whereas most research has been conducted in the area of generating and publishing Linked Data, this thesis presents novel approaches for improved management. In particular, we illustrate new methods for analyzing and processing SPARQL queries. Here, we present two algorithms suitable for identifying structural relationships between these queries. Both algorithms are applied to a large number of real-world requests to evaluate the performance of the approaches and the quality of their results. Based on this, we introduce different strategies enabling optimized access of Linked Data sources. We demonstrate how the presented approach facilitates effective utilization of SPARQL endpoints by prefetching results relevant for multiple subsequent requests. Furthermore, we contribute a set of metrics for determining technical characteristics of such knowledge bases. To this end, we devise practical heuristics and validate them through thorough analysis of real-world data sources. We discuss the findings and evaluate their impact on utilizing the endpoints. Moreover, we detail the adoption of a scalable infrastructure for improving Linked Data discovery and consumption. As we outline in an exemplary use case, this platform is eligible both for processing and provisioning the corresponding information. N2 - Unter dem Begriff Linked Data werden untereinander vernetzte Datenbestände verstanden, die große Mengen an strukturierten Informationen für verschiedene Anwendungsgebiete enthalten. In den letzten Jahren wurden die konzeptionellen und technischen Grundlagen für die Veröffentlichung von Linked Data gelegt und verfeinert. Zu diesem Zweck wurden eine Reihe von Technologien eingeführt, darunter das Resource Description Framework (RDF) als Datenmodell für Linked Data und das SPARQL Protocol and RDF Query Language (SPARQL) zum Abfragen dieser Informationen. Während bisher hauptsächlich die Erzeugung und Bereitstellung von Linked Data Forschungsgegenstand war, präsentiert die vorliegende Arbeit neuartige Verfahren zur besseren Nutzbarmachung. Insbesondere werden dafür Methoden zur Analyse und Verarbeitung von SPARQL-Anfragen entwickelt. Zunächst werden daher zwei Algorithmen vorgestellt, die die strukturelle Ähnlichkeit solcher Anfragen bestimmen. Beide Algorithmen werden auf eine große Anzahl von authentischen Anfragen angewandt, um sowohl die Güte der Ansätze als auch die ihrer Resultate zu untersuchen. Darauf aufbauend werden verschiedene Strategien erläutert, mittels derer optimiert auf Quellen von Linked Data zugegriffen werden kann. Es wird gezeigt, wie die dabei entwickelte Methode zur effektiven Verwendung von SPARQL-Endpunkten beiträgt, indem relevante Ergebnisse für mehrere nachfolgende Anfragen vorgeladen werden. Weiterhin werden in dieser Arbeit eine Reihe von Metriken eingeführt, die eine Einschätzung der technischen Eigenschaften solcher Endpunkte erlauben. Hierfür werden praxisrelevante Heuristiken entwickelt, die anschließend ausführlich mit Hilfe von konkreten Datenquellen analysiert werden. Die dabei gewonnenen Erkenntnisse werden erörtert und in Hinblick auf die Verwendung der Endpunkte interpretiert. Des Weiteren wird der Einsatz einer skalierbaren Plattform vorgestellt, die die Entdeckung und Nutzung von Beständen an Linked Data erleichtert. Diese Plattform dient dabei sowohl zur Verarbeitung als auch zur Verfügbarstellung der zugehörigen Information, wie in einem exemplarischen Anwendungsfall erläutert wird. KW - Vernetzte Daten KW - SPARQL KW - RDF KW - Anfragepaare KW - Informationsvorhaltung KW - linked data KW - SPARQL KW - RDF KW - query matching KW - prefetching Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72312 ER - TY - THES A1 - Maraun, Douglas T1 - What can we learn from climate data? : Methods for fluctuation, time/scale and phase analysis T1 - Was können wir aus Klimadaten lernen? : Methoden zur Fluktuations-, Zeit/Skalen- und Phasenanalyse N2 - Since Galileo Galilei invented the first thermometer, researchers have tried to understand the complex dynamics of ocean and atmosphere by means of scientific methods. They observe nature and formulate theories about the climate system. Since some decades powerful computers are capable to simulate the past and future evolution of climate. Time series analysis tries to link the observed data to the computer models: Using statistical methods, one estimates characteristic properties of the underlying climatological processes that in turn can enter the models. The quality of an estimation is evaluated by means of error bars and significance testing. On the one hand, such a test should be capable to detect interesting features, i.e. be sensitive. On the other hand, it should be robust and sort out false positive results, i.e. be specific. This thesis mainly aims to contribute to methodological questions of time series analysis with a focus on sensitivity and specificity and to apply the investigated methods to recent climatological problems. First, the inference of long-range correlations by means of Detrended Fluctuation Analysis (DFA) is studied. It is argued that power-law scaling of the fluctuation function and thus long-memory may not be assumed a priori but have to be established. This requires to investigate the local slopes of the fluctuation function. The variability characteristic for stochastic processes is accounted for by calculating empirical confidence regions. The comparison of a long-memory with a short-memory model shows that the inference of long-range correlations from a finite amount of data by means of DFA is not specific. When aiming to infer short memory by means of DFA, a local slope larger than $\alpha=0.5$ for large scales does not necessarily imply long-memory. Also, a finite scaling of the autocorrelation function is shifted to larger scales in the fluctuation function. It turns out that long-range correlations cannot be concluded unambiguously from the DFA results for the Prague temperature data set. In the second part of the thesis, an equivalence class of nonstationary Gaussian stochastic processes is defined in the wavelet domain. These processes are characterized by means of wavelet multipliers and exhibit well defined time dependent spectral properties; they allow one to generate realizations of any nonstationary Gaussian process. The dependency of the realizations on the wavelets used for the generation is studied, bias and variance of the wavelet sample spectrum are calculated. To overcome the difficulties of multiple testing, an areawise significance test is developed and compared to the conventional pointwise test in terms of sensitivity and specificity. Applications to Climatological and Hydrological questions are presented. The thesis at hand mainly aims to contribute to methodological questions of time series analysis and to apply the investigated methods to recent climatological problems. In the last part, the coupling between El Nino/Southern Oscillation (ENSO) and the Indian Monsoon on inter-annual time scales is studied by means of Hilbert transformation and a curvature defined phase. This method allows one to investigate the relation of two oscillating systems with respect to their phases, independently of their amplitudes. The performance of the technique is evaluated using a toy model. From the data, distinct epochs are identified, especially two intervals of phase coherence, 1886-1908 and 1964-1980, confirming earlier findings from a new point of view. A significance test of high specificity corroborates these results. Also so far unknown periods of coupling invisible to linear methods are detected. These findings suggest that the decreasing correlation during the last decades might be partly inherent to the ENSO/Monsoon system. Finally, a possible interpretation of how volcanic radiative forcing could cause the coupling is outlined. N2 - Seit der Erfindung des Thermometers durch Galileo Galilei versuchen Forscher mit naturwissenschaftlichen Methoden die komplexen Zusammenhänge in der Atmosphäre und den Ozeanen zu entschlüsseln. Sie beobachten die Natur und stellen Theorien über das Klimasystem auf. Seit wenigen Jahrzehnten werden sie dabei von immer leistungsfähigeren Computern unterstützt, die das Klima der Erdgeschichte und der nahen Zukunft simulieren. Die Verbindung aus den Beobachtungen und den Modellen versucht die Zeitreihen­analyse herzustellen: Aus den Daten werden mit statistischen Methoden charak­teristische Eigenschaften der zugrundeliegenden klimatologischen Prozesse geschätzt, die dann in die Modelle einfliessen können. Die Bewertung solch einer Schätzung, die stets Messfehlern und Vereinfachungen des Modells unterworfen ist, erfolgt statistisch entweder mittels Konfidenzintervallen oder Signifikanztests. Solche Tests sollen auf der einen Seite charakteristische Eigenschaften in den Daten erkennen können, d.h. sie sollen sensitiv sein. Auf der anderen Seite sollen sie jedoch auch keine Eigenschaften vortäuschen, d.h. sie sollen spezifisch sein. Für die vertrauenswürdige Untermauerung einer Hypothese ist also ein spezifischer Test erforderlich. Die vorliegende Arbeit untersucht verschiedene Methoden der Zeitreihenanalyse, erweitert sie gegebenenfalls und wendet sie auf typische klimatologische Frage­stellungen an. Besonderes Augenmerk wird dabei auf die Spezifizität der jeweiligen Methode gelegt; die Grenzen möglicher Folgerungen mittels Datenanalyse werden diskutiert. Im ersten Teil der Arbeit wird studiert, wie und ob sich mithilfe der sogenannten trendbereinigenden Fluktuationsanalyse aus Temperaturzeitreihen ein sogenanntes langes Gedächtnis der zugrundeliegenden Prozesse herleiten lässt. Solch ein Gedächtnis bedeutet, dass der Prozess seine Vergangenheit nie vergisst, mit fundamentalen Auswirkungen auf die gesamte statistische Beurteilung des Klimasystems. Diese Arbeit konnte jedoch zeigen, dass die Analysemethode vollkommen unspezifisch ist und die Hypothese “Langes Gedächtnis” gar nicht abgelehnt werden kann. Im zweiten Teil werden zunächst Mängel einer sehr populären Analysemethode, der sogenannten kontinuierlichen Waveletspetralanalyse diskutiert. Diese Methode schätzt die Variabilität eines Prozesses auf verschiedenen Schwingungsperioden zu bestimm­ten Zeiten. Ein wichtiger Nachteil der bisherigen Methodik sind auch hier unspezi­fische Signifikanztests. Ausgehend von der Diskussion wird eine Theorie der Wavelet­spektralanalyse entwickelt, die ein breites Feld an neuen Anwendungen öffnet. Darauf basierend werden spezifische Signifikanztests konstruiert. Im letzten Teil der Arbeit wird der Einfluss des El Niño/Southern Oscillation Phäno­mens auf den Indischen Sommermonsun analysiert. Es wird untersucht, ob und wann die Oszillationen beider Phänomene synchron ablaufen. Dazu wird eine etablierte Methode für die speziellen Bedürfnisse der Analyse von typischerweise sehr unregel­mäßigen Klimadaten erweitert. Mittels eines spezifischen Signifikanztests konnten bisherige Ergebnisse mit erhöhter Genauigkeit bestätigt werden. Zusätzlich konnte diese Methode jedoch auch neue Kopplungsintervalle feststellen, die die Hypothese entkräften konnten, dass ein neuerliches Verschwinden der Kopplung ein beisspielloser Vorgang sei. Schliesslich wird eine Hypothese vorgestellt, wie vulkanische Aerosole die Kopplung beeinflussen könnten. KW - Spektralanalyse KW - Monsun KW - Klimatologie KW - Zeitreihenanalyse KW - Wavelet-Analyse KW - El-Niño-Phänomen KW - Kopplungs-Analyse KW - Kohärenz-Analyse KW - Phasen-Analyse KW - Signifikanztests KW - Continuous Wavelet Spectral Analysis KW - Wavelet Coherence KW - Phase-Analysis KW - Significance Testing KW - Climatology Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-9047 ER - TY - THES A1 - Figueroa Campos, Gustavo Adolfo T1 - Wet-coffee processing production wastes T1 - Produktionsabfälle aus der Nasskaffeeverarbeitung BT - quality, potentials, and valorization opportunities BT - Qualität, Potenziale und Verwertungsmöglichkeiten N2 - Countries processing raw coffee beans are burdened with low economical incomes to fight the serious environmental problems caused by the by-products and wastewater that is generated during the wet-coffee processing. The aim of this work was to develop alternative methods of improving the waste by-product quality and thus making the process economically more attractive with valorization options that can be brought to the coffee producers. The type of processing influences not only the constitution of green coffee but also of by-products and wastewater. Therefore, coffee bean samples as well as by-products and wastewater collected at different production steps of were analyzed. Results show that the composition of wastewater is dependent on how much and how often the wastewater is recycled in the processing. Considering the coffee beans, results indicate that the proteins might be affected during processing and a positive effect of the fermentation on the solubility and accessibility of proteins seems to be probable. The steps of coffee processing influence the different constituents of green coffee beans which, during roasting, give rise to aroma compounds and express the characteristics of roasted coffee beans. Knowing that this group of compounds is involved in the Maillard reaction during roasting, this possibility could be utilized for the coffee producers to improve the quality of green coffee beans and finally the coffee cup quality. The valorization of coffee wastes through modification to activated carbon has been considered as a low-cost option creating an adsorbent with prospective to compete with commercial carbons. Activation protocol using spent coffee and parchment was developed and prepared to assess their adsorption capacity for organic compounds. Spent coffee grounds and parchment proved to have similar adsorption efficiency to commercial activated carbon. The results of this study document a significant information originating from the processing of the de-pulped to green coffee beans. Furthermore, it showed that coffee parchment and spent coffee grounds can be valorized as low-cost option to produce activated carbons. Further work needs to be directed to the optimization of the activation methods to improve the quality of the materials produced and the viability of applying such experiments in-situ to bring the coffee producer further valorization opportunities with environmental perspectives. Coffee producers would profit in establishing appropriate simple technologies to improve green coffee quality, re-use coffee by-products, and wastewater valorization. N2 - Produktionsabfälle aus der Nasskaffeeverarbeitung: Qualität, Potenziale und Verwertungsmöglichkeiten Die Länder, die Rohkaffee verarbeiten, haben nur ein geringes wirtschaftliches Einkommen, um die ernsten Umweltprobleme zu bekämpfen, die durch die bei der Nasskaffeeverarbeitung anfallenden Nebenprodukte und Abwässer verursacht werden. Ziel dieser Arbeit war es, alternative Methoden zu entwickeln, um die Qualität der Nebenprodukte zu verbessern und so den Prozess wirtschaftlich attraktiver zu machen, indem den Kaffeeproduzenten Valorisierungsoptionen geboten werden. Die Art der Verarbeitung beeinflusst nicht nur die Beschaffenheit des Rohkaffees, sondern auch die der Nebenprodukte und des Abwassers. Daher wurden Proben von Kaffeebohnen sowie Nebenprodukte und Abwässer analysiert, die bei verschiedenen Produktionsschritten gesammelt wurden. Die Ergebnisse zeigen, dass die Zusammensetzung des Abwassers davon abhängt, wie viel und wie oft das Abwasser bei der Verarbeitung recycelt wird. In Bezug auf die Kaffeebohnen deuten die Ergebnisse darauf hin, dass die Proteine während der Verarbeitung beeinträchtigt werden könnten, und eine positive Auswirkung der Fermentation auf die Löslichkeit und Zugänglichkeit der Proteine scheint wahrscheinlich zu sein. Die Schritte der Kaffeeverarbeitung beeinflussen die verschiedenen Bestandteile der grünen Kaffeebohnen, die beim Rösten zu Aromastoffen werden und die Eigenschaften der gerösteten Kaffeebohnen zum Ausdruck bringen. Da diese Gruppe von Verbindungen an der Maillard-Reaktion während des Röstens beteiligt ist, könnte diese Möglichkeit von den Kaffeeproduzenten genutzt werden, um die Qualität der grünen Kaffeebohnen und schließlich die Qualität des zubereiteten Kaffees zu verbessern. Die Herstellung von Aktivkohle aus modifizierten Kaffeeabfällen wurde als kostengünstige Option zur Schaffung eines Adsorptionsmittels betrachtet, das mit handelsüblicher Aktivkohle konkurrieren könnte. Es wurde ein Aktivierungsprotokoll für gebrauchten Kaffee und Pergament entwickelt und vorbereitet, um deren Adsorptionskapazität für organische Verbindungen zu bewerten. Es zeigte sich, dass Kaffeesatz und Pergament eine ähnliche Adsorptionseffizienz aufweisen wie kommerzielle Aktivkohle. Die Ergebnisse dieser Studie belegen, dass die Verarbeitung von den entpulpten zu grünen Kaffeebohnen eine wichtige Information darstellt. Darüber hinaus wurde gezeigt, dass Kaffeepergament und Kaffeesatz als kostengünstige Möglichkeit zur Herstellung von Aktivkohle genutzt werden können. Weitere Arbeiten müssen sich mit der Optimierung der Aktivierungsmethoden befassen, um die Qualität der hergestellten Materialien zu verbessern, und mit der Durchführbarkeit solcher Experimente in-situ, um den Kaffeeproduzenten weitere Aufwertungsmöglichkeiten mit Umweltperspektive zu bieten. Die Kaffeeproduzenten würden von der Einführung geeigneter einfacher Technologien zur Verbesserung der Rohkaffeequalität, der Wiederverwendung von Kaffeenebenprodukten und der Aufwertung von Abwässern profitieren. KW - Arabica coffee beans KW - coffee processing KW - coffee by-products KW - protein modification KW - activated carbon KW - Arabica Kaffeebohnen KW - Aktivkohle KW - Kaffeenebenprodukte KW - Kaffeeverarbeitung KW - Protein Modifizierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558828 ER - TY - THES A1 - Fuchs, Sven T1 - Well-log based determination of rock thermal conductivity in the North German Basin T1 - Bestimmung der Gesteinswärmeleitfähigkeit aus geophysikalischen Bohrlochmessungen im Norddeutschen Becken N2 - In sedimentary basins, rock thermal conductivity can vary both laterally and vertically, thus altering the basin’s thermal structure locally and regionally. Knowledge of the thermal conductivity of geological formations and its spatial variations is essential, not only for quantifying basin evolution and hydrocarbon maturation processes, but also for understanding geothermal conditions in a geological setting. In conjunction with the temperature gradient, thermal conductivity represents the basic input parameter for the determination of the heat-flow density; which, in turn, is applied as a major input parameter in thermal modeling at different scales. Drill-core samples, which are necessary to determine thermal properties by laboratory measurements, are rarely available and often limited to previously explored reservoir formations. Thus, thermal conductivities of Mesozoic rocks in the North German Basin (NGB) are largely unknown. In contrast, geophysical borehole measurements are often available for the entire drilled sequence. Therefore, prediction equations to determine thermal conductivity based on well-log data are desirable. In this study rock thermal conductivity was investigated on different scales by (1) providing thermal-conductivity measurements on Mesozoic rocks, (2) evaluating and improving commonly applied mixing models which were used to estimate matrix and pore-filled rock thermal conductivities, and (3) developing new well-log based equations to predict thermal conductivity in boreholes without core control. Laboratory measurements are performed on sedimentary rock of major geothermal reservoirs in the Northeast German Basin (NEGB) (Aalenian, Rhaethian-Liassic, Stuttgart Fm., and Middle Buntsandstein). Samples are obtained from eight deep geothermal wells that approach depths of up to 2,500 m. Bulk thermal conductivities of Mesozoic sandstones range between 2.1 and 3.9 W/(m∙K), while matrix thermal conductivity ranges between 3.4 and 7.4 W/(m∙K). Local heat flow for the Stralsund location averages 76 mW/m², which is in good agreement to values reported previously for the NEGB. For the first time, in-situ bulk thermal conductivity is indirectly calculated for entire borehole profiles in the NEGB using the determined surface heat flow and measured temperature data. Average bulk thermal conductivity, derived for geological formations within the Mesozoic section, ranges between 1.5 and 3.1 W/(m∙K). The measurement of both dry- and water-saturated thermal conductivities allow further evaluation of different two-component mixing models which are often applied in geothermal calculations (e.g., arithmetic mean, geometric mean, harmonic mean, Hashin-Shtrikman mean, and effective-medium theory mean). It is found that the geometric-mean model shows the best correlation between calculated and measured bulk thermal conductivity. However, by applying new model-dependent correction, equations the quality of fit could be significantly improved and the error diffusion of each model reduced. The ‘corrected’ geometric mean provides the most satisfying results and constitutes a universally applicable model for sedimentary rocks. Furthermore, lithotype-specific and model-independent conversion equations are developed permitting a calculation of water-saturated thermal conductivity from dry-measured thermal conductivity and porosity within an error range of 5 to 10%. The limited availability of core samples and the expensive core-based laboratory measurements make it worthwhile to use petrophysical well logs to determine thermal conductivity for sedimentary rocks. The approach followed in this study is based on the detailed analyses of the relationships between thermal conductivity of rock-forming minerals, which are most abundant in sedimentary rocks, and the properties measured by standard logging tools. By using multivariate statistics separately for clastic, carbonate and evaporite rocks, the findings from these analyses allow the development of prediction equations from large artificial data sets that predict matrix thermal conductivity within an error of 4 to 11%. These equations are validated successfully on a comprehensive subsurface data set from the NGB. In comparison to the application of earlier published approaches formation-dependent developed for certain areas, the new developed equations show a significant error reduction of up to 50%. These results are used to infer rock thermal conductivity for entire borehole profiles. By inversion of corrected in-situ thermal-conductivity profiles, temperature profiles are calculated and compared to measured high-precision temperature logs. The resulting uncertainty in temperature prediction averages < 5%, which reveals the excellent temperature prediction capabilities using the presented approach. In conclusion, data and methods are provided to achieve a much more detailed parameterization of thermal models. N2 - Die thermische Modellierung des geologischen Untergrundes ist ein wichtiges Werkzeug bei der Erkundung und Bewertung tiefliegender Ressourcen sedimentärer Becken (e.g., Kohlenwasserstoffe, Wärme). Die laterale und vertikale Temperaturverteilung im Untergrund wird, neben der Wärmestromdichte und der radiogenen Wärmeproduktion, hauptsächlich durch die Wärmeleitfähigkeit (WLF) der abgelagerten Gesteinsschichten bestimmt. Diese Parameter stellen die wesentlichen Eingangsgrößen für thermische Modelle dar. Die vorliegende Dissertation befasst sich mit der Bestimmung der Gesteins-WLF auf verschiedenen Skalen. Dies umfasst (1) laborative WLF-Messungen an mesozoischen Bohrkernproben, (2) die Evaluierung und Verbesserung der Prognosefähigkeit von Mischgesetzten zur Berechnung von Matrix- und Gesamt-WLF sedimentärer Gesteine, sowie (3) die Entwicklung neuer Prognosegleichungen unter Nutzung bohrlochgeophysikalischer Messungen und multivariater Analysemethoden im NGB. Im Nordostdeutschen Becken (NEGB) wurden für die wichtigsten geothermischen Reservoire des Mesozoikums (Aalen, Rhät-Lias-Komplex, Stuttgart Formation, Mittlerer Buntsandstein) Bohrkerne geothermischer Tiefbohrungen (bis 2.500 m Tiefe) auf Ihre thermischen und petrophysikalischen Eigenschaften hin untersucht. Die WLF mesozoischer Sandsteine schwankt im Mittel zwischen 2,1 und 3,9 W/(m∙K), die WLF der Gesteinsmatrix hingegen im Mittel zwischen 3,4 und 7,4 W/(m∙K). Neu berechnete Werte zur Oberflächenwärmestromdichte (e.g., 76 mW/m², Stralsund) stehen im Einklang mit den Ergebnissen früherer Studien im NEGB. Erstmals im NDB wurde für das mesozoisch/känozoischen Intervall am Standort Stralsund ein in-situ WLF-Profil berechnet. In-situ Formations-WLF, für als potentielle Modelschichten interessante, stratigraphische Intervalle, variieren im Mittel zwischen 1,5 und 3,1 W/(m∙K) und bilden eine gute Grundlage für kleinskalige (lokale) thermische Modelle. Auf Grund der in aller Regel nur eingeschränkt verfügbaren Bohrkernproben sowie des hohen laborativen Aufwandes zur Bestimmung der WLF waren alternative Methoden gesucht. Die Auswertung petrophysikalischer Bohrlochmessungen mittels mathematischer-statistischer Methoden stellt einen lang genutzten und erprobten Ansatz dar, welcher in seiner Anwendbarkeit jedoch auf die aufgeschlossenen Gesteinsbereiche (Genese, Geologie, Stratigraphie, etc.) beschränkt ist. Daher wurde ein leicht modifizierter Ansatz entwickelt. Die thermophysikalischen Eigenschaften der 15 wichtigsten gesteinsbildenden Minerale (in Sedimentgesteinen) wurden statistisch analysiert und aus variablen Mischungen dieser Basisminerale ein umfangreicher, synthetischer Datensatz generiert. Dieser wurde mittels multivariater Statistik bearbeitet, in dessen Ergebnis Regressionsgleichungen zur Prognose der Matrix-WLF für drei Gesteinsgruppen (klastisch, karbonatisch, evaporitisch) abgeleitet wurden. In einem zweiten Schritt wurden für ein Echtdatenset (laborativ gemessene WLF und Standardbohrlochmessungen) empirische Prognosegleichungen für die Berechnung der Gesamt-WLF entwickelt. Die berechneten WLF zeigen im Vergleich zu gemessenen WLF Fehler zwischen 5% und 11%. Die Anwendung neu entwickelter, sowie in der Literatur publizierter Verfahren auf den NGB-Datensatz zeigt, dass mit den neu aufgestellten Gleichungen stets der geringste Prognosefehler erreicht wird. Die Inversion neu berechneter WLF-Profile erlaubt die Ableitung synthetischer Temperaturprofile, deren Vergleich zu gemessenen Gesteinstemperaturen in einen mittleren Fehler von < 5% resultiert. Im Rahmen geothermischer Berechnungen werden zur Umrechnung zwischen Matrix- und Gesamt-WLF häufig Zwei-Komponenten-Mischmodelle genutzt (Arithmetisches Mittel, Harmonische Mittel, Geometrisches Mittel, Hashin-Shtrikman Mittel, Effektives-Medium Mittel). Ein umfangreicher Datensatz aus trocken- und gesättigt-gemessenen WLF und Porosität erlaubt die Evaluierung dieser Modelle hinsichtlich Ihrer Prognosefähigkeit. Diese variiert für die untersuchten Modelle stark (Fehler: 5 – 53%), wobei das geometrische Mittel die größte, quantitativ aber weiterhin unbefriedigende Übereinstimmungen zeigt. Die Entwicklung und Anwendung mischmodelspezifischer Korrekturgleichungen führt zu deutlich reduzierten Fehlern. Das korrigierte geometrische Mittel zeigt dabei, bei deutlich reduzierter Fehlerstreubreite, erneut die größte Übereinstimmung zwischen berechneten und gemessenen Werten und scheint ein universell anwendbares Mischmodel für sedimentäre Gesteine zu sein. Die Entwicklung modelunabhängiger, gesteinstypbezogener Konvertierungsgleichungen ermöglicht die Abschätzung der wassergesättigten Gesamt-WLF aus trocken-gemessener WLF und Porosität mit einem mittleren Fehler < 9%. Die präsentierten Daten und die neu entwickelten Methoden erlauben künftig eine detailliertere und präzisere Parametrisierung thermischer Modelle sedimentärer Becken. KW - Wärmeleitfähigkeit KW - Temperaturfeld KW - Nordostdeutsches Becken KW - Bohrlochmessungen KW - Multivariate Analyse KW - Thermal-conductivity KW - Well-log analysis KW - Northeast German Basin KW - temperature field analysis KW - Multivariate statistic Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67801 ER - TY - THES A1 - Pitzen, Valentin T1 - Weitergeführte funktionelle Charakterisierung des centrosomalen Proteins Cep192 und Untersuchung der Topologie des Centrosoms in Dictyostelium Amöben T1 - Functional Characterization of the Centrosomal Protein Cep192 and Investigation of the Topology of the Centrosome in Dictyostelium amoeba N2 - Das Centrosom von Dictyostelium ist acentriolär aufgebaut, misst ca. 500 nm und besteht aus einer dreischichten Core-Struktur mit umgebender Corona, an der Mikrotubuli nukleieren. In dieser Arbeit wurden das centrosomale Protein Cep192 und mögliche Interaktionspartner am Centrosom eingehend untersucht. Die einleitende Lokalisationsuntersuchung von Cep192 ergab, dass es während der gesamten Mitose an den Spindelpolen lokalisiert und im Vergleich zu den anderen Strukturproteinen der Core-Struktur am stärksten exprimiert ist. Die dauerhafte Lokalisation an den Spindelpolen während der Mitose wird für Proteine angenommen, die in den beiden identisch aufgebauten äußeren Core-Schichten lokalisieren, die das mitotische Centrosom formen. Ein Knockdown von Cep192 führte zur Ausbildung von überzähligen Mikrotubuli-organisierenden Zentren (MTOC) sowie zu einer leicht erhöhten Ploidie. Deshalb wird eine Destabilisierung des Centrosoms durch die verminderte Cep192-Expression angenommen. An Cep192 wurden zwei kleine Tags, der SpotH6- und BioH6-Tag, etabliert, die mit kleinen fluoreszierenden Nachweiskonjugaten markiert werden konnten. Mit den so getagten Proteinen konnte die hochauflösende Expansion Microscopy für das Centrosom optimiert werden und die Core-Struktur erstmals proteinspezifisch in der Fluoreszenzmikroskopie dargestellt werden. Cep192 lokalisiert dabei in den äußeren Core-Schichten. Die kombinierte Markierung von Cep192 und den centrosomalen Proteinen CP39 und CP91 in der Expansion Microscopy erlaubte die Darstellung des dreischichtigen Aufbaus der centrosomalen Core-Struktur, wobei CP39 und CP91 zwischen Cep192 in der inneren Core-Schicht lokalisieren. Auch die Corona wurde in der Expansion Microscopy untersucht: Das Corona-Protein CDK5RAP2 lokalisiert in räumlicher Nähe zu Cep192 in der inneren Corona. Ein Vergleich der Corona-Proteine CDK5RAP2, CP148 und CP224 in der Expansion Microscopy ergab unterscheidbare Sublokalisationen der Proteine innerhalb der Corona und relativ zur Core-Struktur. In Biotinylierungsassays mit den centrosomalen Core-Proteinen CP39 und CP91 sowie des Corona-Proteins CDK5RAP2 konnte Cep192 als möglicher Interaktionspartner identifiziert werden. Die Ergebnisse dieser Arbeit zeigen die wichtige Funktion des Proteins Cep192 im Dictyostelium-Centrosom und ermöglichen durch die Kombination aus Biotinylierungsassays und Expansion Microscopy der untersuchten Proteine ein verbessertes Verständnis der Topologie des Centrosoms. N2 - The Dictyostelium centrosome contains no centrioles and has a diameter of approx. 500 nm. It consists of a three layered core structure and a surrounding corona, which nucleates microtubules. This work focusses on the centrosomal protein Cep192 and potential interactors at the centrosome. Localization studies showed, that Cep192 is a permanent resident at the spindle poles during mitosis and that, compared to other centrosomal core proteins, Cep192 is expressed at the highest level. The permanent residence at the spindle poles throughout mitosis is assumed for proteins which localize to the outer core layers, which form the mitotic centrosome. A knockdown of Cep192 resulted in supernumerary microtubule organizing centers (MTOC) and a slightly higher ploidy. Due to the phenotype, a destabilization of the centrosome caused by the reduced Cep192 expression is assumed. Cep192 was fused to the newly established short tags BioH6 and SpotH6, which are recognized by small fluorescently labelled probes. The tagged proteins were used for superresolution expansion microscopy. Superresolution expansion microscopy was optimized for the centrosome and allowed the protein specific resolving of the core structure for the first time. Cep192 localizes to the outer core layers. Combination of tagged proteins nicely mirrored all three core layers. CP39 and CP91 localize inbetween Cep192 in the inner core layer. Corona proteins were included in the expansion microscopy: the corona protein CDK5RAP2 comes into close proximity of Cep192 and localizes to the inner corona. A comparison with CP148 and CP224, two other corona proteins, revealed a distinct localization of the proteins within the corona and relatively to the core structure. Applied biotinylase assays with the core proteins CP39 and CP91, as well with the corona protein CDK5RAP2 revealed Cep192 as a possible interaction partner of all three proteins. The results of this work show the important function of Cep192 at the Dictyostelium centrosome and through the biotinylase assay and expansion microscopy data shed a light on the refined Dictyostelium centrosome topology. KW - Centrosom KW - Fluoreszenzmikroskopie KW - expansion microscopy KW - Cep192 KW - CDK5RAP2 KW - fluorescence microscopy KW - Cep192 KW - CDK5RAP2 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-548891 ER - TY - THES A1 - Festag, Matthias T1 - Weiterentwicklung eines in vitro Embryotoxizitätsassays : die Inhibierung der Differenzierung von murinen embryonalen Stammzellen zu Endothelzellen N2 - Substanzen der pharmazeutischen und chemischen Industrie müssen nach internationalen Richtlinien auf deren Toxizität gegenüber Mensch und Umwelt geprüft werden. Dazu gehören u. a. Prüfungen zur Vorhersage des embryotoxischen Potentials, die am lebenden Organismus durchgeführt werden. Mit dem Ziel die Anzahl der Tierversuche zu verringern, die notwendig sind um das toxikologische Profil einer Prüfsubstanz zu bestimmen, wurde der Embryonale Stammzelltest (EST) entwickelt. Als Grundlage des EST dienen embryonale Stammzellen (ES-Zellen) einer Zelllinie. ES-Zellen sind Zellen, die sich in der frühen embryonalen Entwicklung in die Zellen der Keimblätter entwickeln können. Daraus wiederum differenzieren die vielen verschiedenen, unterschiedlich spezialisierten Zelltypen des komplexen Organismus. Im EST wird die Konzentration einer Prüfsubstanz bestimmt, bei der die Differenzierung von ES-Zellen zu Herzmuskelzellen zu 50 % inhibiert wird. Zusätzlich wird die Konzentration der Prüfsubstanz bestimm°t, bei der 50 % der ES-Zellen (IC50D3) bzw. Fibroblastenzellen (IC503T3) absterben. Die allgemeine Toxizität ist damit von der spezifischen Toxizität der Prüfsubstanz auf die ES-Zellen und deren Differenzierung unterscheidbar. Die Parameter fliessen in ein biostatistisches Modell zur Prädiktion des embryotoxischen Potentials der Prüfsubstanzen ein. Es wurde ein Versuchsprotokoll entwickelt, wonach die ES-Zellen sich verstärkt zu Endothelzellen differenzieren. Die Endothelzellen, die im lebenden Organismus die Wand der späteren Blutgefässe, wie Venen und Arterien bilden, wurden mittels molekularbiologischer Methoden auf der RNA- und der Protein-Ebene nachgewiesen und quantifiziert. Verschiedene Zellkulturmethoden, Wachstumsfaktoren, als auch Wachstumsfaktorkonzentrationen wurden auf deren Vermögen die Differenzierung der ES-Zellen zu Endothelzellen zu induzieren, untersucht. Nach der Etablierung des Differenzierungsprotokolls wurden sieben Substanzen auf deren Vermögen geprüft, die Differenzierung von ES-Zellen zu Endothelzellen zu inhibieren. Die Endothelzellen wurden dabei über die Expression der RNA von zwei endothelzellspezifischen Genen quantifiziert. Im Vergleich dazu wurden die IC50D3 und die IC503T3 der Prüfsubstanz bestimmt, um eine Abschätzung des embryotoxischen Potentials der Prüfsubstanz zu ermöglichen. Die Ergebnisse zeigten, dass eine Abschätzung des embryotoxischen Potentials der sieben Prüfsubstanzen in nicht-, schwach- oder stark embryotoxisch vorgenommen werden konnte. Es ist zu schlussfolgern, dass der weiterentwickelte in vitro Embryotoxizitätsassay sensitiv und reproduzierbar ist. Mit der Verwendung von verschiedenen Differenzierungsendpunkten kann die Prädiktionskraft des Assays deutlich verbessert, und die Anzahl von Tierversuchen verringert werden. Durch die Verwendung von molekularbiologischen Markern kann der Assay einem Hochdurchsatzscreening zugängig gemacht werden und damit die Anzahl von Prüfsubstanzen deutlich erhöht werden. N2 - Compounds of the pharmaceutical and chemical industry need to be tested for their toxicological potential with regard to humans and environment following international guidelines. Tests for the prediction of the embryotoxic potential executed on living organisms are examples of these guidelines. In order to reduce the number of animal experiments necessary for the assessment of the toxicological profile of compounds the embryonic stem cell test (EST) was developed. Embryonic stem cells (ES-cells) of a cell line are used as the basis of the EST. ES-cells are cells which develop at the early embryonic development into cells of the germ layers. Out of these the many different specialized cell types of the complex organism can differentiate. With the EST this concentration of a test compound will be determined where a 50 % inhibition of the differentiation of ES-cells into cardiomyocytes can be detected. Additionally, the concentration of a test compound which is cytotoxic to 50 % of the ES-cells (IC50D3) and to 50 % of fibroblasts (IC503T3) will be determined. Therefore, general toxicity caused by the test compound on ES-cells and its differentiation can be distinguished from specific toxicity of the test compound. Determined parameters will be included into a biostatistical model for the subsequent predicition of the embryotoxic potential of test compounds. A protocol was developed whereby the differentiation of ES-cells into endothelial cells is induced. Endothelial cells which make up the walls of blood vessels, such as arteries and veins, were detected and quantified at the RNA and the protein level applying molecular biological methods. Different cell culture methods, growth factors and growth factor concentrations were studied for their ability to induce the differentiation of ES-cells into endothelial cells. Applying the developed differentiation protocol seven compounds were tested for their potential to inhibit the differentiation of ES-cells into endothelial cells. Endothelial cells were quantified by the RNA-expression of two endothelial-specific genes. In comparison to the expression levels the IC50D3 and the IC503T3 were determined in order to assess the embryotoxic potential of the test compound. The results showed that an assessment of the embryotoxic potential of the seven test compounds into non-, weakly- and strongly embroytoxic was possible. It can be concluded that the improved in vitro embryotoxicity assay is sensitive and reproducible. With the use of different differentiation endpoints the power of predicitivity of this assay can be significantly increased and the number of animal experiments can be reduced. With the application of molecular biological markers this assay can be applied as a high througput screening and therefore the number of test compounds can be strongly increased. T2 - Weiterentwicklung eines in vitro Embryotoxizitätsassays : die Inhibierung der Differenzierung von murinen embryonalen Stammzellen zu Endothelzellen KW - EST KW - Stammzelle KW - Maus KW - Endothelzelle KW - EST KW - stem cell KW - mouse KW - endothelial cell Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001815 ER - TY - THES A1 - Brinkmeier, Petra T1 - Weibliche Jugendpflege zwischen Geselligkeit und Sittlichkeit : zur Geschichte des Verbandes der evangelischen Jungfrauenvereine Deutschlands (1890-1918) T1 - Female youth welfare between sociability and morality : the history of the German young women's christian association (1890-1918) N2 - Die Arbeit untersucht erstmals die evangelischen Vereine für weibliche Jugendliche, die so genannten Jungfrauenvereine, von ihrer Entstehung in den 1840er Jahren bis zum 1. Weltkrieg, sowie insbesondere den 1893 gegründeten Verband der evangelischen Jungfrauenvereine Deutschlands (später Evangelischer Verband zur Pflege der weiblichen Jugend Deutschlands, ab 1929 Evangelischer Reichsverband weiblicher Jugend). In der ersten Hälfte des 19. Jahrhundert begann ein Teil des protestantischen Bürgertums damit, für die hochmobilen Unterschichts-Jugendlichen, die im Zuge der Industrialisierung als Handwerksgesellen und Dienstmädchen, später als Fabrikarbeiter und -arbeiterinnen in die expandierenden Großstädten gingen, Herbergen und Vereine zu gründen. Damit trugen die Initiatoren wesentlich zur Entstehung eines öffentliches Bewusstsein für die prekäre Lebenssituation der Unterschichtsjugend und für die Notwendigkeit präventiver Jugendarbeit bei. Der Verband initiierte dann in den Jahren um 1900 zahlreiche innovative soziale Projekte in der weiblichen Jugendpflege und Jugendfürsorge. Die Arbeit untersucht drei Bereiche: 1. Vereine (sog. Abendheime) und Wohnheime für Fabrikarbeiterinnen; 2. die 1894 begonnene Bahnhofmission, die sich der mobilen weiblichen Jugendlichen direkt an die Bahnhöfen annahm; 3. Erholungshäuser für erwerbstätige Jugendliche. Bei allen Initiativen arbeitete der Verband eng mit seinem lokalen Partner, dem Berliner Verein zur Fürsorge für die weibliche Jugend zusammen, der neue Arbeitsbereiche in der Praxis testete. Neben der Verbandsgeschichte im engeren Sinne thematisiert die Untersuchung auch die Konzeption und die Inhalte der Vereinsarbeit. Orientiert an dem Konzept einer christlichen Persönlichkeitsbildung sollte die Vereinsarbeit möglichst viele Bereiche jugendlichen Lebens umfassen: Arbeit (inkl. Erholungsurlaub), Wohnen, Freizeit (Geselligkeit, Lektüre), Gesundheit und Bildung. Da jedoch aufgrund der Orientierung an einem konservativen Frauenbild der Bereich jugendlicher Sexualität bewusst ausgeklammert wurde, erreichte man mit diesem Konzept präventiver Jugendarbeit im wesentlichen nur die ohnehin wohlanständigen Jugendlichen. Die Spannung zwischen einem konservativen Frauenbild einerseits und den modernisierenden Impulsen einer Jugendarbeit mit weiblichen Jugendlichen andererseits zeigt sich auch daran, dass der Verband durch die Gründung eines Berufsverbandes für Sozialarbeiterinnen (Verband der Berufsarbeiterinnen der Inneren Mission) und der Einrichtung von Ausbildungsstätten wesentlichen Anteil an den modernisierenden Prozessen der Verberuflichung der sozialen Arbeit und der kirchlichen Jugendpflege zu Berufen bürgerlicher Frauen hatte. N2 - This is the first study into the Protestant association for female youths, the so-called Jungfrauenvereine, from their origins in the 1840s until World War I, and especially the German Young Women’s Christian Association (YWCA) founded in 1893. In the first half of the 19th century, members of the Protestant middle-class began founding hostels and associations for the highly mobile youth from the lower classes that went to the expanding cities to find jobs as manual labourers or housemaids, then later as factory workers. As a consequence, the initiators of Protestant youth welfare contributed significantly to the common awareness for the precarious situation of lower class youth (females) and of the necessity for preventive youth care. In the decade preceding and subsequent to 1900, the Association initiated various pioneering social projects in the area of female youth work and youth welfare. This study examines three areas: 1. The associations and homes for young female workers; 2. The Railway Station Mission (Bahnhofsmission) which was founded in 1894 and cared for mobile female youths directly at the central stations of big cities. 3. Rest homes for young working women. In all these efforts the national associations worked together very closely with their local partner, the Berlin Association for the Welfare of Female Youths (Berliner Verein zur Fürsorge für die weibliche Jugend), which tested and practised new forms of social work. Apart from the history of the German Young Women’s Christian Association in a narrower sense, this study also explores the conception and content of the Association’s work. Based on the concept of Christian inspired personal development, the work of the Association sought to encompass various parts of juvenile life such as: work (including holiday), living, leisure (social gatherings, reading), health and education. Because of the focus on conservative female role models, juvenile sexuality was explicitly ignored. This meant that this concept of preventive youth care only reached those young women who already conducted themselves in the perceived decency. The tension between the conservative female role model on the one hand and the modernising impact of new models of youth welfare on the other hand is also visible in the fact that the Association made an essential contribution to the institutionalisation of new social professions for middle-class women by founding a vocational association of social workers and vocational schools and colleges. KW - Kirchliche Sozialarbeit KW - Wohlfahrtsverband KW - CVJM-Gesamtverband in Deutschland KW - Christlicher Jugendverband KW - Burckhardthaus KW - Bahnhofsmission KW - Burckhardt KW - Johannes (1853-1914) KW - Müller KW - Gertrud (1864-1912) KW - Goltz KW - Anna Freiin von der (1837-1909) KW - women’s organisation KW - Traveler’s Aid KW - welfare worker KW - youth organisation KW - women studies Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10226 ER - TY - THES A1 - Heilmann, Katja T1 - Wechselwirkungen von Immunzellen mit synthetischen und biomimetischen Oberflächen T1 - Interactions of immune cells with synthetic and biomimetic surfaces N2 - Die vorliegende Arbeit wurde im Zeitraum von Oktober 2002 bis November 2005 an dem Institut für Biochemie und Biologie der Universität Potsdam in Kooperation mit dem Institut für Chemie des GKSS Forschungszentrums in Teltow unter der Leitung von Herrn Prof. Dr. B. Micheel und Herrn Prof. Dr. Th. Groth angefertigt. Im Rahmen dieser Arbeit wurden die Wechselwirkungen von Immunzellen mit verschiedenen Kultursubstraten untersucht. Dafür wurden drei verschiedene Hybridomzelllinien eingesetzt. Eine Hybridomzelllinie (K2) ist im Laufe dieser Arbeit hergestellt und etabliert worden. Der Einsatz von synthetischen und proteinbeschichteten Kulturoberflächen führte bei Hybridomzellen zu einer deutlich gesteigerten Antikörpersynthese im Vergleich zu herkömmlichen Zellkulturmaterialien. Obwohl diese Zellen in der Regel als Suspensionszellen kultiviert werden, führten die eingesetzten Polymermembranen (PAN, NVP) zu einer verbesserten Antikörpersynthese (um 30%) gegenüber Polystyrol als Referenz. Es konnte gezeigt werden, dass es einen Zusammenhang zwischen der Produktivität und dem Adh asionsverhalten der Hybridomzellen gibt. Um den Einfluss von Proteinen der extrazellulären Matrix auf Zellwachstum und Antikörpersynthese von Hybridomzellen zu untersuchen, wurden proteinbeschichtete Polystyrol-Oberflächen eingesetzt. Für die Modifikationen wurden Fibronektin, Kollagen I, Laminin und BSA ausgewählt. Die Modifikation der Polystyrol-Oberfläche mit geringen Mengen Fibronektin (0,2-0,4 µg/ml) führte zu einer beträchtlichen Steigerung der Antikörpersynthese um 70-120%. Für Kollagen I- und BSA-Beschichtungen konnten Steigerungen von 40% beobachtet werden. Modifikationen der Polystyrol-Oberfläche mit Laminin zeigten nur marginale Effekte. Durch weitere Versuche wurde bestätigt, dass die Adhäsion der Zellen an Kollagen I- und Laminin-beschichteten Oberflächen verringert ist. Die alpha2-Kette des alpha2beta1-Integrins konnte auf der Zelloberfläche nicht nachgewiesen werden. Durch ihr Fehlen wird wahrscheinlich die Bindungsfähigkeit der Zellen an Kollagen I und Laminin beeinflusst. Durch die Ergebnisse konnte gezeigt werden, dass Hybridomzellen nicht nur Suspensionszellen sind und das Kultursubstrate das Zellwachstum und die Produktivität dieser Zellen stark beeinflussen können. Der Einsatz von synthetischen und proteinbeschichteten Kultursubstraten zur Steigerung der Antikörpersynthese kann damit für die industrielle Anwendung von großer Relevanz sein. Für die Modellierung einer Lymphknotenmatrix wurden Fibronektin, Kollagen I, Heparansulfat und N-Acetylglucosamin-mannose in verschiedenen Kombinationen an Glasoberflächen adsorbiert und für Versuche zur In-vitro-Immunisierung eingesetzt. Es konnte gezeigt werden, dass die Modifikation der Oberflächen die Aktivierung und Interaktion von dendritischen Zellen, T- und B-Lymphozyten begünstigt, was durch den Nachweis spezifischer Interleukine (IL12, IL6) und durch die Synthese spezifischer Antikörper bestätigt wurde. Eine spezifische Immunreaktion gegen das Antigen Ovalbumin konnte mit den eingesetzten Zellpopulationen aus Ovalbumin-T-Zell-Rezeptor-transgenen Mäusen nachgewiesen werden. Die In-vitro-Immunantwort wurde dabei am stärksten durch eine Kombination von Kollagen I, Heparansulfat und N-Acetylglucosamin-mannose auf einer Glasoberfläche gefördert. Die Etablierung einer künstlichen Immunreaktion kann eine gesteuerte Aktivierung bzw. Inaktivierung von körpereigenen dendritischen Zellen gegen bestehende Krankheitsmerkmale in vitro ermöglichen. Durch die Versuche wurden Grundlagen für spezifische Immunantworten erarbeitet, die u.a. für die Herstellung von humanen Antikörpern eingesetzt werden können. N2 - In this scientific work the interactions of immune cells with different culture substrata were investigated. Therefore, three hybridoma cell lines were tested, one cell line (K2) was established during this work. The application of synthetic and protein-coated culture surfaces lead to a significantly increased synthesis of monoclonal antibodies in comparison to usual tissue polystyrene. Although hybridoma cells were normally cultured in suspension applied polymer membranes like PAN and NVP induced an increase by 30%. Furthermore, an influence of cell adhesion and antibody synthesis could be shown. To investigate the influence of extracellular matrix proteins on growth and antibody synthesis of hybridoma cells tissue culture polystyrene was coated with fibronectin, collagen I, laminin and bovine serum albumine in different concentrations. Modifications with fibronectin (concentrations between 0.2 and 0.4 µg/ml) improved the yield of monoclonal antibodies considerably by 70-120%. Coating cell culture plates with collagen I and bovine serum albumine induced an increase by 40%. The coating with laminin showed only marginal effects. Further experiments approved a decreased adhesion of hybridoma cells on collagen I and laminin coated surfaces. FACS analysis showed a reduced presence of the alpha2-chain of the alpha2/beta1-integrin responsible for mediating the binding to collagen I and laminin. Probably, the binding affinity to collagen I and laminin coated surfaces was influenced by this. The results showed a high impact of modified culture substrata on antibody synthesis even if hybridoma cells were cultured in suspension normally and this could be an approach for industrial application. The second part of this work comprised the creation of a lymph node paracortex related surface. Different matrix proteins like fibronectin, collagen I, heparane sulfate and a sugar named N-acetylglucosamine-mannose were coated in different combinations on glass surfaces to create a matrix. Dendritic cells were cultivated on these surfaces and get activated with ovalbumin. After that naïve T- and B-cell populations were added and it could be shown nicely that the modifications of the culture surface were essential for activation and interaction of dendritic cells, T- and B-cells which resulted in the secretion of specific interleukins (IL12, IL6) and specific antibodies (anti-ovalbumin-antibodies). In these experiments a specific immune respone to ovalbumin in vitro could be detected if the cells were isolated from ovalbumin-receptor-transgenic-mice (TgNDO11.10). This In-vitro-immunization was triggered at most if cells were cultured on a surface coated with a combination of collagen I, heparane sulfate and N-acetylglucosamine-mannose. These experiments could be basics for controlled specific immune reactions in vitro which could be used for the production of human antibodies or for the controlled activation or inactivation of immune cells. KW - Hybridomtechnik KW - Antikörper KW - Extrazelluläre Matrix KW - Antikörperproduktion KW - Adhäsion KW - Polymermembranen KW - adhesion KW - polymer membranes KW - hybridoma cells KW - antibody synthesis Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-8843 ER - TY - THES A1 - Gromelski, Sandra T1 - Wechselwirkung zwischen Lipiden und DNA : auf dem Weg zum künstlichen Virus T1 - Interaction between lipids and DNA : on the way to the artificial virus N2 - Weltweit versuchen Wissenschaftler, künstliche Viren für den Gentransfer zu konstruieren, die nicht reproduktionsfähig sind. Diese sollen die Vorteile der natürlichen Viren besitzen (effizienter Transport von genetischem Material), jedoch keine Antigene auf ihrer Oberfläche tragen, die Immunreaktionen auslösen. Ziel dieses Projektes ist es, einen künstlichen Viruspartikel herzustellen, dessen Basis eine Polyelektrolytenhohlkugel bildet, die mit einer Lipiddoppelschicht bedeckt ist. Um intakte Doppelschichten zu erzeugen, muss die Wechselwirkung zwischen Lipid und Polyelektrolyt (z.B. DNA) verstanden und optimiert werden. Dazu ist es notwendig, die strukturelle Grundlage der Interaktion aufzuklären. Positiv geladene Lipide gehen zwar starke Wechselwirkungen mit der negativ geladenen DNA ein, sie wirken jedoch toxisch auf biologische Zellen. In der vorliegenden Arbeit wurde daher die durch zweiwertige Kationen vermittelte Kopplung von genomischer oder Plasmid-DNA an zwitterionische oder negativ geladene Phospholipide an zwei Modellsystemen untersucht. 1. Modellsystem: Lipidmonoschicht an der Wasser/Luft-Grenzfläche Methoden: Filmwaagentechnik in Kombination mit IR-Spektroskopie (IRRAS), Röntgenreflexion (XR), Röntgendiffraktion (GIXD), Brewsterwinkel-Mikroskopie (BAM), Röntgenfluoreszenz (XRF) und Oberflächenpotentialmessungen Resultate: A) Die Anwesenheit der zweiwertigen Kationen Ba2+, Mg2+, Ca2+ oder Mn2+ in der Subphase hat keinen nachweisbaren Einfluss auf die Struktur der zwitterionischen DMPE- (1,2-Dimyristoyl-phosphatidyl-ethanolamin) Monoschicht. B) In der Subphase gelöste DNA adsorbiert nur in Gegenwart dieser Kationen an der DMPE-Monoschicht. C) Sowohl die Adsorption genomischer Kalbsthymus-DNA als auch der Plasmid-DNA pGL3 bewirkt eine Reduktion des Neigungswinkels der Alkylketten, die auf einen veränderten Platzbedarf der Kopfgruppe zurückzuführen ist. Durch die Umorientierung der Kopfgruppe wird die elektrostatische Wechselwirkung zwischen den positiv geladenen Stickstoffatomen der Lipidkopfgruppen und den negativ geladenen DNA-Phosphaten erhöht. D) Die adsorbierte DNA weist eine geordnete Struktur auf, wenn sie durch Barium-, Magnesium-, Calcium- oder Manganionen komplexiert ist. Der Abstand zwischen parallelen DNA-Strängen hängt dabei von der Größe der DNA-Fragmente sowie von der Art des Kations ab. Die größten Abstände ergeben sich mit Bariumionen, gefolgt von Magnesium- und Calciumionen. Die kleinsten DNA-Abstände werden durch Komplexierung mit Manganionen erhalten. Diese Ionenreihenfolge stellt sich sowohl für genomische DNA als auch für Plasmid-DNA ein. E) Die DNA-Abstände werden durch die Kompression des Lipidfilms nicht beeinflusst. Zwischen der Lipidmonoschicht und der adsorbierten DNA besteht demnach nur eine schwache Wechselwirkung. Offensichtlich befindet sich die durch zweiwertige Kationen komplexierte DNA als weitgehend eigenständige Schicht unter dem Lipidfilm. 2. Modellsystem: Lipiddoppelschicht an der fest/flüssig-Grenzfläche Methoden: Neutronenreflexion (NR) und Quarzmikrowaage (QCM-D) Resultate: A) Das zwitterionische Phospholipid DMPC (1,2-Dimyristoyl-phosphatidylcholin) bildet keine Lipiddoppelschicht auf planaren Polyelektrolytmultischichten aus, deren letzte Lage das positiv geladene PAH (Polyallylamin) ist. B) Hingegen bildet DMPC auf dem negativ geladenen PSS (Polystyrolsulfonat) eine Doppelschicht aus, die jedoch Defekte aufweist. C) Eine Adsorption von genomischer Kalbsthymus-DNA auf dieser Lipidschicht findet nur in Gegenwart von Calciumionen statt. Andere zweiwertige Kationen wurden nicht untersucht. D) Das negativ geladene Phospholipid DLPA (1,2-Dilauryl-phosphatidsäure) bildet auf dem positiv geladenen PAH eine Lipiddoppelschicht aus, die Defekte aufweist. E) DNA adsorbiert ebenfalls erst in Anwesenheit von Calciumionen in der Lösung an die DLPA-Schicht. F) Durch die Zugabe von EDTA (Ethylendiamintetraessigsäure) werden die Calciumionen dem DLPA/DNA-Komplex entzogen, wodurch dieser dissoziiert. Demnach ist die calciuminduzierte Bildung dieser Komplexe reversibel. N2 - All over the world scientists are trying to engineer artificial viruses, which do not replicate, for gene delivery. These artificial viruses should have the advantages of natural viruses such as efficient transport of genetic material, but they should not carry antigens, which cause immune reactions, on their top portion. The aim of this project is to develop an artificial virus particle that is based on a polyelectrolyte hollow capsule which is covered by a lipid bilayer. To create intact bilayers, it is crucial to understand and optimize the interaction between lipids and polyelectrolytes (e. g. DNA). Therefore the structural basis of that interaction must be elucidated. Positively charged lipids interact strongly with the negatively charged DNA but they cause toxic reactions in biological cells. Hence the present work used two model systems to study the coupling of genomic or plasmid DNA to zwitterionic or negatively charged phospholipids induced by divalent cations. 1. Model system: Lipid monolayer at the air/water-interface Methods: Langmuir filmbalance in combination with IR-spectroscopy (IRRAS), X-ray reflectometry (XR), X-ray diffraction (GIXD), Brewster angle microscopy (BAM), X-ray fluorescence (XRF), and surface potential measurements Results: A) The presence of the divalent cations Ba2+, Mg2+, Ca2+ or Mn2+ in the subphase has no traceable influence on the structure of a zwitterionic DMPE (1,2-dimyristoyl-phosphatidyl-ethanolamine) monolayer. B) DNA which is dissolved in the subphase adsorbs to the DMPE-monolayer only if divalent cations are present. C) The adsorption of genomic calf thymus DNA as well as of the plasmid DNA pGL3 causes a reduction of the tilt angle of the lipid alkyl chains. The tilt reduction can be ascribed to a change in the space required by the lipid head group. This change in head group orientation increases the electrostatic interaction between the positively charged nitrogen atoms in the lipid head and the negatively charged DNA phosphates. D) The adsorbed DNA exhibits an ordered structure if it is complexed by barium, magnesium, calcium or manganese ions. The spacing between parallel DNA strands depends on the size of the DNA fragments as well as on the kind of cation. The largest DNA-spacings are observed with barium ions, followed by magnesium and calcium ions. DNA-complexation with manganese ions causes the smallest spacings. This order of ions is observed for both genomic and plasmid DNA. E) Compression of the monolayer does not influence the DNA spacings. Thus the interaction between the lipid monolayer and adsorbed DNA is only weak. The DNA must exist as a more or less separate layer under the lipid film. 2. Model system: Lipid bilayer at the solid/fluid-interface Methods: Neutron reflectometry (NR), and Quartz crystal microbalance (QCM-D) Results: A) The zwitterionic phospholipid DMPC (1,2-dimyristoyl phosphatidylcholine) does not form lipid bilayers on top of planar polyelectrolyte multilayers covered with the positively charged PAH (polyallylamine). B) In contrast, DMPC forms a lipid bilayer with defects on top of the negatively charged PSS (polystyrolsulfonate) terminated polyelectrolyte cushion. C) Genomic calf thymus DNA adsorbs only to the DMPC layer in presence of calcium ions. Different ions were not examined. D) The negatively charged phospholipid DLPA (1,2-dilauryl-phosphatidic acid) also forms a lipid bilayer with defects on top of the PAH-terminated cushion. E) The DNA adsorbs also to the DLPA layer only in the presence of calcium ions in the solution. F) By addition of EDTA (ethylenediaminetretraacetic acid) the calcium cations are removed from the DLPA/DNA-complex and the complex dissociates. Thus the calcium induced formation of that complex is reversible. KW - Lipide / Doppelschicht KW - DNA KW - Monoschicht KW - Gentransfer KW - Phospholipide KW - DNA-Lipid-Wechselwirkung KW - künstlicher Virus KW - zwitterionische Phospholipide KW - zweiwertige Kationen KW - zwitterionic phospholipids KW - DNA-lipid-interaction KW - divalent cations KW - artificial virus KW - lipid monolayer Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7629 ER - TY - THES A1 - Kayser, Markus T1 - Wechselwirkung der atmosphärischen Grenzschicht mit synoptisch–skaligen Prozessen während der N-ICE2015 Kampagne N2 - Die Arktis erwärmt sich schneller als der Rest der Erde. Die Auswirkungen manifestieren sich unter Anderem in einer verstärkten Erwärmung der arktischen Grenzschicht. Diese Arbeit befasst sich mit Wechselwirkungen zwischen synoptischen Zyklonen und der arktischen Atmosphäre auf lokalen bis überregionalen Skalen. Ausgangspunkt dafür sind Messdaten und Modellsimulationen für den Zeitraum der N-ICE2015 Expedition, die von Anfang Januar bis Ende Juni 2015 im arktischen Nordatlantiksektor stattgefunden hat. Anhand von Radiosondenmessungen lassen sich Auswirkungen von synoptischen Zyklonen am deutlichsten im Winter erkennen, da sie durch die Advektion warmer und feuchter Luftmassen in die Arktis den Zustand der Atmosphäre von einem strahlungs-klaren in einen strahlungs-opaken ändern. Obwohl dieser scharfe Kontrast nur im Winter existiert, zeigt die Analyse, dass der integrierte Wasserdampf als Indikator für die Advektion von Luftmassen aus niedrigen Breiten in die Arktis auch im Frühjahr geeignet ist. Neben der Advektion von Luftmassen wird der Einfluss der Zyklonen auf die statische Stabilität charakterisiert. Beim Vergleich der N-ICE2015 Beobachtungen mit der SHEBA Kampagne (1997/1998), die über dickerem Eis stattfand, finden sich trotz der unterschiedlichen Meereisregime Ähnlichkeiten in der statischen Stabilität der Atmosphäre. Die beobachteten Differenzen in der Stabilität lassen sich auf Unterschiede in der synoptischen Aktivität zurückführen. Dies lässt vermuten, dass die dünnere Eisdecke auf saisonalen Zeitskalen nur einen geringen Einfluss auf die thermodynamische Struktur der arktischen Troposphäre besitzt, solange eine dicke Schneeschicht sie bedeckt. Ein weiterer Vergleich mit den parallel zur N-ICE2015 Kampagne gestarteten Radiosonden der AWIPEV Station in Ny-Åesund, Spitzbergen, macht deutlich, dass die synoptischen Zyklonen oberhalb der Orographie auf saisonalen Zeitskalen das Wettergeschehen bestimmen. Des Weiteren werden für Februar 2015 die Auswirkungen von in der Vertikalen variiertem Nudging auf die Entwicklung der Zyklonen am Beispiel des hydrostatischen regionalen Klimamodells HIRHAM5 untersucht. Es zeigt sich, dass die Unterschiede zwischen den acht Modellsimulationen mit abnehmender Anzahl der genudgten Level zunehmen. Die größten Differenzen resultieren vornehmlich aus dem zeitlichen Versatz der Entwicklung synoptischer Zyklonen. Zur Korrektur des Zeitversatzes der Zykloneninitiierung genügt es bereits, Nudging in den unterstem 250 m der Troposphäre anzuwenden. Daneben findet sich zwischen den genudgten HIRHAM5-Simulation und den in situ Messungen der gleiche positive Temperaturbias, den auch ERA-Interim besitzt. Das freie HIRHAM hingegen reproduziert das positive Ende der N-ICE2015 Temperaturverteilung gut, besitzt aber einen starken negativen Bias, der sehr wahrscheinlich aus einer Unterschätzung des Feuchtegehalts resultiert. An Beispiel einer Zyklone wird gezeigt, dass Nudging Einfluss auf die Lage der Höhentiefs besitzt, die ihrerseits die Zyklonenentwicklung am Boden beeinflussen. Im Weiteren wird mittels eines für kleine Ensemblegrößen geeigneten Varianzmaßes eine statistische Einschätzung der Wirkung des Nudgings auf die Vertikale getroffen. Es wird festgestellt, dass die Ähnlichkeit der Modellsimulationen in der unteren Troposphäre generell höher ist als darüber und in 500 hPa ein lokales Minimum besitzt. Im letzten Teil der Analyse wird die Wechselwirkung der oberen und unteren Stratosphäre anhand zuvor betrachteter Zyklonen mit Daten der ERA-Interim Reanalyse untersucht. Lage und Ausrichtung des Polarwirbels erzeugten ab Anfang Februar 2015 eine ungewöhnlich große Meridionalkomponente des Tropopausenjets, die Zugbahnen in die zentrale Arktis begünstigte. Am Beispiel einer Zyklone wird die Übereinstimmung der synoptischen Entwicklung mit den theoretischen Annahmen über den abwärts gerichteten Einfluss der Stratosphäre auf die Troposphäre hervorgehoben. Dabei spielt die nicht-lineare Wechselwirkung zwischen der Orographie Grönlands, einer Intrusion stratosphärischer Luft in die Troposphäre sowie einer in Richtung Arktis propagierender Rossby-Welle eine tragende Rolle. Als Indikator dieser Wechselwirkung werden horizontale Signaturen aus abwechselnd aufsteigender und absinkender Luft innerhalb der Troposphäre identifiziert. N2 - The Arctic warms faster than the rest of the earth. The causes and effects of this arctic amplification are manifested in the arctic atmosphere, especially in the atmospheric boundary layer, which plays a key role in the exchange processes of the atmosphere, ocean and sea ice. This work highlights the importance of synoptic cyclones in the Arctic North Atlantic region. For this purpose, the influence of synoptic cyclones on the Arctic boundary layer as well as their interactions with different regions within the Arctic atmosphere on local to supraregional scales is investigated. The starting point for this are measurement data and model simulations for the period of the NICE2015 expedition, which took place in the Arctic North Atlantic region from early January to late June 2015. On the basis of radiosonde measurements, the effects of synoptic cyclones are most noticeable in the winter because, by the advection of warm and humid air masses into the Arctic, the condition of the atmosphere changes from a radiative clear to opaquely cloudy. Although this sharp contrast only exists in winter, the analysis shows that integrated water vapor is an indicator for the advection of air masses from low latitudes into the Arctic even in the spring. In addition to the advection of air masses, the influence of cyclones on static stability is characterized. Comparing the N-ICE2015 observations with the SHEBA campaign (1997/1998), which took place over thicker ice, similarities are found in the static stability of the atmosphere despite the different sea ice regimes. The observed differences in stability can be attributed to differences in synoptic activity. A further comparison with the radiosondes of the AWIPEV station in Ny-Åesund, Spitzbergen, which were launched parallel to the N-ICE2015 campaign, shows that synoptic cyclones determine the course of the winter months. In addition, the effects of vertically-varying nudging on the development of cyclones is examined for February 2015 using the hydrostatic regional climate model HIRHAM5. It is shown that the differences between the eight model simulations are increasing with decreasing number of nudged levels. The greatest differences are mainly due to the temporal offset of the development of synoptic cyclones. To correct the time offset of the cyclone initiation, it is sufficient to use nudging in the lowest troposphere. The free HIRHAM reproduces the positive end of the N-ICE2015 temperature distribution well, but has a strong negative bias which most likely results from an under-estimation of the moisture content. An example of a cyclone shows that nudging has an influence on the position of the high altitude lows, which in turn influences cyclone development on the ground. Furthermore, a statistical estimate of the effect of nudging on the vertical is made by means of a variance measure suitable for small ensemble sizes. It is found that the similarity of model simulations in the lower troposphere is generally higher than above and has a local minimum in 500 hPa. In the last part of the analysis, the interaction of the upper troposphere and the lower stratosphere is investigated with data from the ERA interim reanalysis using previously examined cyclones. The position and orientation of the polar vortex produced an unusually large meridional component of the tropopause jets, which favored passage of low pressure systems into the central Arctic from the beginning of February 2015 onwards. Using a cyclone as an example, the synoptic development is compared with the theoretical assumptions about the downward impact of the stratosphere on the troposphere. The non-linear interaction between Greenland’s orography, an intrusion of stratospheric air into the troposphere, and a Rossby wave propagating in the direction of the Arctic play a key role in the selected time frame. As an indicator of this interaction, horizontal signatures are identified from alternately ascending and descending air within the troposphere. KW - arktische Grenzschicht KW - Arctic boundary layer KW - synoptische Zyklone KW - synoptic cyclones KW - thermodynamische Struktur KW - thermodynamic structure KW - regional climate simulations KW - regionale Klimasimulationen KW - nudging Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-411124 ER - TY - THES A1 - Klimke, Jan T1 - Web-based provisioning and application of large-scale virtual 3D city models T1 - Webbasierte Bereitstellung und Anwendung von großen virtuellen 3D-Stadtmodellen N2 - Virtual 3D city models represent and integrate a variety of spatial data and georeferenced data related to urban areas. With the help of improved remote-sensing technology, official 3D cadastral data, open data or geodata crowdsourcing, the quantity and availability of such data are constantly expanding and its quality is ever improving for many major cities and metropolitan regions. There are numerous fields of applications for such data, including city planning and development, environmental analysis and simulation, disaster and risk management, navigation systems, and interactive city maps. The dissemination and the interactive use of virtual 3D city models represent key technical functionality required by nearly all corresponding systems, services, and applications. The size and complexity of virtual 3D city models, their management, their handling, and especially their visualization represent challenging tasks. For example, mobile applications can hardly handle these models due to their massive data volume and data heterogeneity. Therefore, the efficient usage of all computational resources (e.g., storage, processing power, main memory, and graphics hardware, etc.) is a key requirement for software engineering in this field. Common approaches are based on complex clients that require the 3D model data (e.g., 3D meshes and 2D textures) to be transferred to them and that then render those received 3D models. However, these applications have to implement most stages of the visualization pipeline on client side. Thus, as high-quality 3D rendering processes strongly depend on locally available computer graphics resources, software engineering faces the challenge of building robust cross-platform client implementations. Web-based provisioning aims at providing a service-oriented software architecture that consists of tailored functional components for building web-based and mobile applications that manage and visualize virtual 3D city models. This thesis presents corresponding concepts and techniques for web-based provisioning of virtual 3D city models. In particular, it introduces services that allow us to efficiently build applications for virtual 3D city models based on a fine-grained service concept. The thesis covers five main areas: 1. A Service-Based Concept for Image-Based Provisioning of Virtual 3D City Models It creates a frame for a broad range of services related to the rendering and image-based dissemination of virtual 3D city models. 2. 3D Rendering Service for Virtual 3D City Models This service provides efficient, high-quality 3D rendering functionality for virtual 3D city models. In particular, it copes with requirements such as standardized data formats, massive model texturing, detailed 3D geometry, access to associated feature data, and non-assumed frame-to-frame coherence for parallel service requests. In addition, it supports thematic and artistic styling based on an expandable graphics effects library. 3. Layered Map Service for Virtual 3D City Models It generates a map-like representation of virtual 3D city models using an oblique view. It provides high visual quality, fast initial loading times, simple map-based interaction and feature data access. Based on a configurable client framework, mobile and web-based applications for virtual 3D city models can be created easily. 4. Video Service for Virtual 3D City Models It creates and synthesizes videos from virtual 3D city models. Without requiring client-side 3D rendering capabilities, users can create camera paths by a map-based user interface, configure scene contents, styling, image overlays, text overlays, and their transitions. The service significantly reduces the manual effort typically required to produce such videos. The videos can automatically be updated when the underlying data changes. 5. Service-Based Camera Interaction It supports task-based 3D camera interactions, which can be integrated seamlessly into service-based visualization applications. It is demonstrated how to build such web-based interactive applications for virtual 3D city models using this camera service. These contributions provide a framework for design, implementation, and deployment of future web-based applications, systems, and services for virtual 3D city models. The approach shows how to decompose the complex, monolithic functionality of current 3D geovisualization systems into independently designed, implemented, and operated service- oriented units. In that sense, this thesis also contributes to microservice architectures for 3D geovisualization systems—a key challenge of today’s IT systems engineering to build scalable IT solutions. N2 - Virtuelle 3D-Stadtmodelle repräsentieren und integrieren eine große Bandbreite von Geodaten und georeferenzierten Daten über städtische Gebiete. Verfügbarkeit, Quantität und Qualität solcher Daten verbessern sich ständig für viele Städte und Metropolregionen, nicht zuletzt bedingt durch verbesserte Erfassungstechnologien, amtliche 3D-Kataster, offene Geodaten oder Geodaten-Crowdsourcing. Die Anwendungsfelder für virtuelle 3D-Stadtmodelle sind vielfältig. Sie reichen von Stadtplanung und Stadtentwicklung, Umweltanalysen und -simulationen, über Katastrophen- und Risikomanagement, bis hin zu Navigationssystemen und interaktiven Stadtkarten. Die Verbreitung und interaktive Nutzung von virtuellen 3D-Stadtmodellen stellt hierbei eine technische Kernfunktionalität für fast alle entsprechenden Systeme, Services und Anwendungen dar. Aufgrund der Komplexität und Größe virtueller 3D-Stadtmodelle stellt ihre Verwaltung, ihre Verarbeitung und insbesondere ihre Visualisierung eine große Herausforderung dar. Daher können zum Beispiel mobile Anwendungen virtuelle 3D-Stadtmodelle, wegen ihres massiven Datenvolumens und ihrer Datenheterogenität, kaum effizient handhaben. Die effiziente Nutzung von Rechenressourcen, wie zum Beispiel Prozessorleistung, Hauptspeicher, Festplattenspeicher und Grafikhardware, bildet daher eine Schlüsselanforderung an die Softwaretechnik in diesem Bereich. Heutige Ansätze beruhen häufig auf komplexen Clients, zu denen 3D-Modelldaten (z.B. 3D-Netze und 2D- Texturen) transferiert werden müssen und die das Rendering dieser Daten selbst ausführen. Nachteilig ist dabei unter anderem, dass sie die meisten Stufen der Visualisierungspipeline auf der Client-Seite ausführen müssen. Es ist daher softwaretechnisch schwer, robuste Cross-Plattform-Implementierungen für diese Clients zu erstellen, da hoch qualitative 3D-Rendering-Prozesse nicht unwesentlich von lokalen computergrafischen Ressourcen abhängen. Die webbasierte Bereitstellung virtueller 3D-Stadtmodelle beruht auf einer serviceorientierten Softwarearchitektur. Diese besteht aus spezifischen funktionalen Komponenten für die Konstruktion von mobilen oder webbasierten Anwendungen für die Verarbeitung und Visualisierung von komplexen virtuellen 3D-Stadtmodellen. Diese Arbeit beschreibt entsprechende Konzepte und Techniken für eine webbasierte Bereitstellung von virtuellen 3D-Stadtmodellen. Es werden insbesondere Services vorgestellt, die eine effiziente Entwicklung von Anwendungen für virtuelle 3D-Stadtmodelle auf Basis eines feingranularen Dienstekonzepts ermöglichen. Die Arbeit gliedert sich in fünf thematische Hauptbeiträge: 1. Ein servicebasiertes Konzept für die bildbasierte Bereitstellung von virtuellen 3D-Stadtmodellen: Es wird ein konzeptioneller Rahmen für eine Reihe von Services in Bezug auf das Rendering und die bildbasierte Bereitstellung virtueller 3D-Stadtmodelle eingeführt. 2. 3D-Rendering-Service für virtuelle 3D-Stadtmodelle: Dieser Service stellt eine effiziente, hochqualitative 3D-Renderingfunktionalität für virtuelle 3D-Stadtmodelle bereit. Insbesondere werden Anforderungen, wie zum Beispiel standardisierte Datenformate, massive Modelltexturierung, detaillierte 3D-Geometrien, Zugriff auf assoziierte Fachdaten und fehlende Frame-zu-Frame-Kohärenz bei parallelen Serviceanfragen erfüllt. Der Service unterstützt zudem die thematische und gestalterische Stilisierung der Darstellungen auf Basis einer erweiterbaren Grafikeffektbibliothek. 3. Layered-Map-Service für virtuelle 3D-Stadtmodelle: Dieser Service generiert eine kartenverwandte Darstellung in Form einer Schrägansicht auf virtuelle 3D-Stadtmodelle in hoher Renderingqualität. Er weist eine schnelle initiale Ladezeit, eine einfache, kartenbasierte Interaktion und Zugang zu den Fachdaten des virtuellen 3D-Stadtmodells auf. Mittels eines konfigurierbaren Client-Frameworks können damit sowohl mobile, als auch webbasierte Anwendungen für virtuelle 3D Stadtmodelle einfach erstellt werden. 4. Video-Service für virtuelle 3D-Stadtmodelle: Dieser Service erstellt und synthetisiert Videos aus virtuellen 3D-Stadtmodellen. Nutzern wird ermöglicht 3D-Kamerapfade auf einfache Weise über eine kartenbasierte Nutzungsschnittstelle zu erstellen. Weiterhin können die Szeneninhalte, die Stilisierung der Szene, sowie Bild- und Textüberlagerungen konfigurieren und Übergänge zwischen einzelnen Szenen festzulegen, ohne dabei clientseitige 3D-Rendering-Fähigkeiten vorauszusetzen. Das System reduziert den manuellen Aufwand für die Produktion von Videos für virtuelle 3D-Stadtmodelle erheblich. Videos können zudem automatisiert aktualisiert werden, wenn sich zugrunde liegende Daten ändern. 5. Servicebasierte Kamerainteraktion Die vorgestellten Services unterstützen aufgabenbasierte 3D-Kamerainteraktionen und deren Integration in servicebasierte Visualisierungsanwendungen. Es wird gezeigt, wie webbasierte interaktive Anwendungen für virtuelle 3D-Stadtmodelle mit Hilfe von Kameraservices umgesetzt werden können. Diese Beiträge bieten einen Rahmen für das Design, die Implementierung und die Bereitstellung zukünftiger webbasierter Anwendungen, Systeme und Services für virtuelle 3D-Stadtmodelle. Der Ansatz zeigt, wie die meist komplexe, monolithische Funktionalität heutiger 3D-Geovisualisierungssysteme in unabhängig entworfene, implementierte und betriebene serviceorientierte Einheiten zerlegt werden kann. In diesem Sinne stellt diese Arbeit auch einen Beitrag für die Entwicklung von Microservice-Architekturen für 3D-Geovisualisierungssysteme bereit – eine aktuelle Herausforderung in der Softwaresystemtechnik in Hinblick auf den Aufbau skalierender IT-Lösungen. KW - 3D city model KW - 3D geovisualization KW - 3D portrayal KW - serverside 3D rendering KW - CityGML KW - 3D-Stadtmodell KW - 3D-Geovisualisierung KW - 3D-Rendering KW - serverseitiges 3D-Rendering KW - serviceorientierte Architekturen KW - service-oriented architectures Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-428053 ER - TY - THES A1 - Solopow, Sergej T1 - Wavelength dependent demagnetization dynamics in Co2MnGa Heusler-alloy T1 - Wellenlängeabhängige Entmagnetisierungsdynamik in Co2MnGa Heusler-Legierung N2 - In dieser Arbeit haben wir ultraschnelle Entmagnetisierung an einer Heusler-Legierung untersucht. Es handelt sich um ein Halbmetall, das sich in einer ferromagnetischen Phase befindet. Die Besonderheit dieses Materials besteht im Aufbau einer Bandstruktur. Diese bildet Zustandsdichten, in der die Majoritätselektronen eine metallische Bänderbildung aufweisen und die Minoritätselektronen eine Bandlücke in der Nähe des Fermi-Niveaus aufweisen, das dem Aufbau eines Halbleiters entspricht. Mit Hilfe der Pump-Probe-Experimente haben wir zeitaufgelöste Messungen durchgeführt. Für das Pumpen wurden ultrakurze Laserpulse mit einer Pulsdauer von 100 fs benutzt. Wir haben dabei zwei verschiedene Wellenlängen mit 400 nm und 1240 nm benutzt, um den Effekt der Primäranregung und der Bandlücke in den Minoritätszuständen zu untersuchen. Dabei wurde zum ersten Mal OPA (Optical Parametrical Amplifier) für die Erzeugung der langwelligen Pulse an der FEMTOSPEX-Beamline getestet und erfolgreich bei den Experimenten verwendet. Wir haben Wellenlängen bedingte Unterschiede in der Entmagnetisierungszeit gemessen. Mit der Erhöhung der Photonenenergie ist der Prozess der Entmagnetisierung deutlich schneller als bei einer niedrigeren Photonenenergie. Wir verknüpften diese Ergebnisse mit der Existenz der Energielücke für Minoritätselektronen. Mit Hilfe lokaler Elliot-Yafet-Streuprozesse können die beobachteten Zeiten gut erklärt werden. Wir haben in dieser Arbeit auch eine neue Probe-Methode für die Magnetisierung angewandt und somit experimentell deren Effektivität, nämlich XMCD in Refletiongeometry, bestätigen können. Statische Experimente liefern somit deutliche Indizien dafür, dass eine magnetische von einer rein elektronischen Antwort des Systems getrennt werden kann. Unter der Voraussetzung, dass die Photonenenergie der Röntgenstrahlung auf die L3 Kante des entsprechenden Elements eingestellt, ein geeigneter Einfallswinkel gewählt und die zirkulare Polarisation fixiert wird, ist es möglich, diese Methode zur Analyse magnetischer und elektronischer Respons anzuwenden. N2 - In this work we investigated ultrafast demagnetization in a Heusler-alloy. This material belongs to the halfmetal and exists in a ferromagnetic phase. A special feature of investigated alloy is a structure of electronic bands. The last leads to the specific density of the states. Majority electrons form a metallic like structure while minority electrons form a gap near the Fermi-level, like in semiconductor. This particularity offers a good possibility to use this material as model-like structure and to make some proof of principles concerning demagnetization. Using pump-probe experiments we carried out time-resolved measurements to figure out the times of demagnetization. For the pumping we used ultrashort laser pulses with duration around 100 fs. Simultaneously we used two excitation regimes with two different wavelengths namely 400 nm and 1240 nm. Decreasing the energy of photons to the gap size of the minority electrons we explored the effect of the gap on the demagnetization dynamics. During this work we used for the first time OPA (Optical Parametrical Amplifier) for the generation of the laser irradiation in a long-wave regime. We tested it on the FETOSPEX-beamline in BASSYII electron storage ring. With this new technique we measured wavelength dependent demagnetization dynamics. We estimated that the demagnetization time is in a correlation with photon energy of the excitation pulse. Higher photon energy leads to the faster demagnetization in our material. We associate this result with the existence of the energy-gap for minority electrons and explained it with Elliot-Yaffet-scattering events. Additionally we applied new probe-method for magnetization state in this work and verified their effectivity. It is about the well-known XMCD (X-ray magnetic circular dichroism) which we adopted for the measurements in reflection geometry. Static experiments confirmed that the pure electronic dynamics can be separated from the magnetic one. We used photon energy fixed on the L3 of the corresponding elements with circular polarization. Appropriate incidence angel was estimated from static measurements. Using this probe method in dynamic measurements we explored electronic and magnetic dynamics in this alloy. KW - magnetizationdynamic KW - XMCD KW - Heusler-alloy KW - Magnetisierungsdynamik KW - XMCD KW - Heusler-Legierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427860 ER - TY - THES A1 - Fortes Martín, Rebeca T1 - Water-in-oil microemulsions as soft-templates to mediate nanoparticle interfacial assembly into hybrid nanostructures T1 - Wasser-in-Öl Mikroemulsionen als Soft-Templat für die Grenzfläche-Anordnung von Nanopartikeln in hybride Nanostrukturen T1 - Microemulsiones de aceite-en-agua como estructuras templadas blandas para el ensamblaje de nanoparticulas en su interfase dando nanoestructuras híbridas N2 - Hybrid nanomaterials offer the combination of individual properties of different types of nanoparticles. Some strategies for the development of new nanostructures in larger scale rely on the self-assembly of nanoparticles as a bottom-up approach. The use of templates provides ordered assemblies in defined patterns. In a typical soft-template, nanoparticles and other surface-active agents are incorporated into non-miscible liquids. The resulting self-organized dispersions will mediate nanoparticle interactions to control the subsequent self-assembly. Especially interactions between nanoparticles of very different dispersibility and functionality can be directed at a liquid-liquid interface. In this project, water-in-oil microemulsions were formulated from quasi-ternary mixtures with Aerosol-OT as surfactant. Oleyl-capped superparamagnetic iron oxide and/or silver nanoparticles were incorporated in the continuous organic phase, while polyethyleneimine-stabilized gold nanoparticles were confined in the dispersed water droplets. Each type of nanoparticle can modulate the surfactant film and the inter-droplet interactions in diverse ways, and their combination causes synergistic effects. Interfacial assemblies of nanoparticles resulted after phase-separation. On one hand, from a biphasic Winsor type II system at low surfactant concentration, drop-casting of the upper phase afforded thin films of ordered nanoparticles in filament-like networks. Detailed characterization proved that this templated assembly over a surface is based on the controlled clustering of nanoparticles and the elongation of the microemulsion droplets. This process offers versatility to use different nanoparticle compositions by keeping the surface functionalization, in different solvents and over different surfaces. On the other hand, a magnetic heterocoagulate was formed at higher surfactant concentration, whose phase-transfer from oleic acid to water was possible with another auxiliary surfactant in ethanol-water mixture. When the original components were initially mixed under heating, defined oil-in-water, magnetic-responsive nanostructures were obtained, consisting on water-dispersible nanoparticle domains embedded by a matrix-shell of oil-dispersible nanoparticles. Herein, two different approaches were demonstrated to form diverse hybrid nanostructures from reverse microemulsions as self-organized dispersions of the same components. This shows that microemulsions are versatile soft-templates not only for the synthesis of nanoparticles, but also for their self-assembly, which suggest new approaches towards the production of new sophisticated nanomaterials in larger scale. N2 - Hybride Nanomaterialen ermöglichen die Kombination von individuellen Eigenschaften jeder Art von Nanopartikeln. Einige Strategien für die Herstellung neuer großskaliger Nanostrukturen beruhen auf der Selbstassemblierung von Nanopartikeln über einen Bottom-up-Ansatz. Die Nutzung von Templatstrukturen ermöglicht Anordnungen in definierten Mustern. In einem typischen Soft-Templat werden Nanopartikel und andere oberflächenaktive Wirkstoffe in nicht-mischbare Flüssigkeiten eingebracht. Die resultierenden selbst-organisierten Dispersionen beeinflussen die Nanopartikel Interaktionen und kontrollieren die nachfolgende Selbstassemblierung. Insbesondere Interaktionen zwischen Nanopartikeln mit sehr unterschiedlicher Dispergierbarkeit und Funktionalität können Interaktionen an einer Flüssig-Flüssig Grenzfläche gerichtet werden. In diesem Forschungsprojekt wurden Wasser-in-Öl Mikroemulsionen aus quasi-ternären Mischungen mit Aerosol-OT als Tensid hergestellt. Oleyl-beschichtete superparamagnetische Eisenoxid und/oder Silber Nanopartikel wurden in der kontinuierlichen Ölphase eingebracht, während die Polyethyleneimin-stabilisierten Gold Nanopartikel in feinverteilte Wassertröpfchen inkorporiert wurden. Jede Sorte von Nanopartikeln kann den Tensidfilm und die Tröpfchen-Interaktionen auf verschiedene Weise beeinflussen, und seine Kombination führt dabei zu synergetischen Effekten. Die Anordnung von Nanopartikeln an der Grenzfläche basiert auf der Phasentrennung. Auf der einen Seite, bildeten sich aus einem zweiphasigen Winsor II System mit niedrigen Tensid Konzentrationen durch Evaporation der oberen Phase dünne Schichten aus geordneten Nanopartikeln in Form von Filament-Netzen aus. Eine detaillierte Charakterisierung zeigte, dass die Filament-artige Strukturierung auf ein kontrolliertes Nanopartikeln-Clustering und auf die Ausdehnung der Mikroemulsions-Tröpfchen zurückzuführen ist. Dieser Prozess eröffnet flexible Einsatzmöglichkeiten für unterschiedliche Nanopartikel Kompositionen, indem die Oberflächenfunktionalisierung in unterschiedlichen Lösungsmitteln erhalten bleibt, und auch für verschiedenen Lösungsmitteln und über verschiedene Flächen. Auf der anderen Seite wurde ein magnetisches Heterokoagulat in höheren Tensid Konzentration hergestellt, dessen Phasentransfer von Ölsäure in Wasser mit einem anderen zusätzlichen Tensid in einer Ethanol-Wasser Mischung ermöglicht wurde. In Abhängigkeit von der Ausgangstemperatur der initialen Komponenten konnten definierte magnetisch-stimulierbare Öl-in-Wasser Nanostrukturen erhaltet werden. Dabei gelang es Wasser-dispergierbare Nanopartikelkompartimente in eine Matrix-Hülle aus Öl-dispergierbaren Nanopartikeln einzubetten. In dieser Arbeit wurden zwei verschiedene Wege aufgezeigt, um hybride Nanostrukturen aus inversen Mikroemulsionen selbst-organisiert herzustellen. Dies belegt, dass Mikroemulsions-Template nicht nur für die Nanopartikel Synthese geeignet sind, sondern auch für die Herstellung filamentartiger, selbstorganisierter Systeme. Es eröffnen sich hiermit neue Zugänge für die selbstorganisierte Strukturierung von Nanopartikeln auf der Mikrometerskala. N2 - Los nanomateriales híbridos ofrecen la combinación de propiedades individuales de diferentes tipos de nanopartículas. Algunas estrategias para el desarrollo de nuevas nanoestructuras en mayor escala se basan en el auto-ensamblaje (self-assembly) de nanopartículas, como una estrategia “de abajo hacia arriba” (bottom-up). El uso de estructuras de plantilla (templates) proporciona ensamblajes ordenados de formas definidas. En una plantilla blanda típica, las nanopartículas y otros agentes de actividad superficial se incorporan en líquidos no miscibles. Esto da lugar a dispersiones auto-organizadas que mediarán las interacciones entre las nanopartículas, para controlar su auto-ensamblaje resultante. Especialmente las interacciones entre nanopartículas de dispersibilidad y funcionalidades muy diferentes pueden ser redirigidas a una interfase líquido-líquido. En este proyecto se formularon microemulsiones de agua-en-aceite a partir de mezclas cuasi-ternarias con Aerosol-OT (docusato de sodio) como tensioactivo. Las nanopartículas cubiertas de ligandos oleicos, de óxido de hierro superparamagnéticas o de plata, se incorporaron en la fase orgánica continua, mientras que las nanopartículas de oro estabilizadas por polietilenimina fueron confinadas en las gotículas de agua dispersas. Cada tipo de nanopartícula puede modular de fomas muy diversas la capa de tensioactivo y las interacciones entre gotículas, y además su combinación resulta en efectos sinérgicos. Los ensamblajes interfase de nanopartículas se obtuvieron bajo procesos de separación entre fases. Por un lado, a partir de un sistema bifásico de Winsor del tipo II con baja concentración del tensioactivo, la deposición y evaporación de una gota sobre una superficie (drop-casting) de la fase superior proporcionó películas finas de nanopartículas ordenadas como redes de filamentos. Su caracterización detallada probó que este ensamblaje por plantilla sobre una superficie se basa en un agrupamiento (clustering) controlado entre nanopartículas y en la elongación de las gotículas de microemulsiones. Este proceso ofrece versatilidad para usar diferentes composiciones de nanopartículas siempre que su funcionalidad en su superficie se mantenga, además de poder usar diferentes disolventes y sobre diferentes superficies. Por otro lado, un heterocoagulado magnético se formó sobre concentraciones más altas del tensioactivo, y su transferencia de fase desde ácido oleico a agua fue posible usando otro tensioactivo auxiliar en una mezcla de agua y etanol. Cuando los componentes iniciales fueron mezclados al principio bajo calentamiento, se obtuvieron nanoestucturas definidas de aceite-en-agua que responden a un imán, las cuales consisten de dominios de nanopartículas dispersibles en agua que se rodean por un embalaje (matrix-shell) de nanopartículas dispersibles en fase oleosa. De este modo, se demostraron dos propuestas para formar diversos tipos de nanoestructuras híbridas a partir de microemulsiones inversas como dispersiones auto-organizadas de unos mismos componentes. Esto demuestra que las microemulsiones constituyen estructuras de plantilla blandas no sólo para la síntesis de nanopartículas, sino también para su auto-ensamblaje, lo que sugiere novedosas estrategias para la producción de nuevos nanomateriales sofisticados en mayor escala. KW - microemulsions KW - nanoparticles KW - surfactants KW - Colloid Chemistry KW - soft-templates KW - nanostructures KW - nanoparticle assembly KW - hybrid nanostructures KW - Kolloidchemie KW - hybride Nanostrukturen KW - Mikroemulsionen KW - Nanopartikeln-Anordnung KW - Nanopartikeln KW - Nanostrukturen KW - Soft-Templaten KW - Tenside KW - Química de Coloides KW - nanoestructuras híbridas KW - microemulsiones KW - ensamblaje de nanopartículas KW - nanopartículas KW - nanoestructuras KW - estructuras templadas blandas KW - tensioactivos Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571801 ER - TY - THES A1 - Burdack, Doreen T1 - Water management policies and their impact on irrigated crop production in the Murray-Darling Basin, Australia T1 - Wasserregulierungsstrategien und deren Auswirkungen auf bewässerte Feldfrüchteproduktion im Murray-Darling Flusseinzugsgebiet, Australien N2 - The economic impact analysis contained in this book shows how irrigation farming is particularly susceptible when applying certain water management policies in the Australian Murray-Darling Basin, one of the world largest river basins and Australia’s most fertile region. By comparing different pricing and non-pricing water management policies with the help of the Water Integrated Market Model, it is found that the impact of water demand reducing policies is most severe on crops that need to be intensively irrigated and are at the same time less water productive. A combination of increasingly frequent and severe droughts and the application of policies that decrease agricultural water demand, in the same region, will create a situation in which the highly water dependent crops rice and cotton cannot be cultivated at all. N2 - Die ökonomische Folgenanalyse in diesem Buch zeigt, dass insbesondere Landwirte, die stark auf Bewässerung angewiesen sind, von Wasserregulierungsstrategien im Australischen Murray-Darling Becken betroffen sind. Dieses Gebiet ist eines der größten Flussbecken weltweit und zugleich Australiens fruchtbarste Region. Durch den Vergleich von verschiedenen Preisstrategien und anderen Ansätzen konnte mit Hilfe des Water Integrated Market Models herausgefunden werden, dass die Auswirkungen auf hochgradig wasserabhängige Feldfrüchte mit geringeren Wasserproduktivitäten am stärksten sind. Die Kombination von häufigeren und intensiveren Trockenzeiten und einer Regulierungspolitik mit dem Ziel, die Nachfrage nach Wasser zu verringern, führt dazu, dass in ein und derselben Region hochgradig wasserabhängige Feldfrüchte wie Reis und Baumwolle mit geringeren Wasserproduktivitäten nicht mehr angebaut werden können. T3 - Potsdam Economic Studies - 4 KW - Wasserregulierung KW - Wasserpolitik KW - Bewässerung KW - landwirtschaftliche Produktion KW - Australien KW - water management KW - water policy KW - irrigation KW - agricultural production KW - Australia Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72245 SN - 978-3-86956-306-0 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Munz, Matthias T1 - Water flow and heat transport modelling at the interface between river and aquifer T1 - Wasserfluss- und Wärmetransportmodellierung an der Schnittstelle zwischen Fluss und Grundwasserleiter N2 - The functioning of the surface water-groundwater interface as buffer, filter and reactive zone is important for water quality, ecological health and resilience of streams and riparian ecosystems. Solute and heat exchange across this interface is driven by the advection of water. Characterizing the flow conditions in the streambed is challenging as flow patterns are often complex and multidimensional, driven by surface hydraulic gradients and groundwater discharge. This thesis presents the results of an integrated approach of studies, ranging from the acquisition of field data, the development of analytical and numerical approaches to analyse vertical temperature profiles to the detailed, fully-integrated 3D numerical modelling of water and heat flux at the reach scale. All techniques were applied in order to characterize exchange flux between stream and groundwater, hyporheic flow paths and temperature patterns. The study was conducted at a reach-scale section of the lowland Selke River, characterized by distinctive pool riffle sequences and fluvial islands and gravel bars. Continuous time series of hydraulic heads and temperatures were measured at different depths in the river bank, the hyporheic zone and within the river. The analyses of the measured diurnal temperature variation in riverbed sediments provided detailed information about the exchange flux between river and groundwater. Beyond the one-dimensional vertical water flow in the riverbed sediment, hyporheic and parafluvial flow patterns were identified. Subsurface flow direction and magnitude around fluvial islands and gravel bars at the study site strongly depended on the position around the geomorphological structures and on the river stage. Horizontal water flux in the streambed substantially impacted temperature patterns in the streambed. At locations with substantial horizontal fluxes the penetration depths of daily temperature fluctuations was reduced in comparison to purely vertical exchange conditions. The calibrated and validated 3D fully-integrated model of reach-scale water and heat fluxes across the river-groundwater interface was able to accurately represent the real system. The magnitude and variations of the simulated temperatures matched the observed ones, with an average mean absolute error of 0.7 °C and an average Nash Sutcliffe Efficiency of 0.87. The simulation results showed that the water and heat exchange at the surface water-groundwater interface is highly variable in space and time with zones of daily temperature oscillations penetrating deep into the sediment and spots of daily constant temperature following the average groundwater temperature. The average hyporheic flow path temperature was found to strongly correlate with the flow path residence time (flow path length) and the temperature gradient between river and groundwater. Despite the complexity of these processes, the simulation results allowed the derivation of a general empirical relationship between the hyporheic residence times and temperature patterns. The presented results improve our understanding of the complex spatial and temporal dynamics of water flux and thermal processes within the shallow streambed. Understanding these links provides a general basis from which to assess hyporheic temperature conditions in river reaches. N2 - Die Interaktion zwischen Oberflächenwasser und Grundwasser hat einen entscheidenden Einfluss auf die Wasserqualität und die ökologische Beschaffenheit von Seen, Flüssen und aquatischen Ökosystemen. Der Austausch von Wärme und gelösten Substanzen zwischen diesen beiden Kompartimenten ist maßgeblich durch die Austauschraten und die Strömungsrichtung des Wassers beeinflusst. Somit ist die Charakterisierung dieser beiden Größen in dem Übergangsbereich zwischen Oberflächenwasser und Grundwasser von besonderer Bedeutung. Diese Arbeit präsentiert die Entwicklung und Anwendung von Methoden zur Untersuchung der zeitlichen und räumlichen Dynamik des Wasser- und Wärmeflusses an der Schnittstelle zwischen Oberflächenwasser und Grundwasser. Die Arbeit besteht im Wesentlichen aus zwei Schwerpunkten. Der erste Schwerpunkt beinhaltet die Entwicklung und Bewertung von analytischen und numerischen Methoden zur Bestimmung der horizontalen Strömungsrichtung und Austauschraten unter Verwendung von kontinuierlich gemessenen Temperaturzeitreihen entlang vertikaler Profile im gesättigten Sediment. Flussbetttemperaturen können relativ einfach und kostengünstig entlang eines Flussabschnittes in verschiedenen Tiefen und unterschiedlichsten Flussbettsedimenten (organisch, sandig bis grob kiesig) gemessen werden. Die Hauptverwendung solcher Temperaturprofile ist bisher auf die analytische Quantifizierung vertikaler Austauschraten limitiert. Im Rahmen dieser Arbeit wurde ein Ansatz entwickelt, der eine punktuelle Ermittlung der horizontalen Strömungs-komponente, basierend auf der Veränderung der täglichen Temperaturamplitude mit zunehmender Tiefe, ermöglicht. Weiterhin wurde ein inverser, numerischer Ansatz entwickelt, der die ein-dimensionale Wärmetransportgleichung numerisch löst und mittels inverser Optimierungsalgorithmen die simulierten Temperaturen bestmöglich an die gemessenen Flussbetttemperaturen anpasst. Diese Methode ermöglicht die automatische, zeitlich variable Quantifizierung vertikaler Austauschraten an der Schnittstelle zwischen Oberflächenwasser und Grundwasser sowie eine einfache Unsicherheitsbetrachtung aufgrund der zugrunde liegenden Parameterunsicherheiten. Der zweite Schwerpunkt der Arbeit liegt auf der Anwendung der entwickelten Methoden und der Erstellung eines dreidimensionalen Simulationsmodelles entlang eines Flussabschnittes der Selke. Numerische Strömungs- und Stofftransportmodelle ermöglichen die gekoppelte Simulation von Fließprozessen im offenen Gerinne und im darunter liegenden porösen Medium. Die Parametrisierung des Modells erfolgte anhand empirischer Daten die im Untersuchungsgebiet detailliert erhoben wurden. Die Simulationsergebnisse zeigten zum einen gebietsspezifische Gegebenheiten auf, ermöglichten darüber hinaus jedoch auch die Beschreibung allgemeiner Muster und Zusammenhänge welche die Wasserfluss- und Wärmetransportprozesse an der Schnittstelle zwischen Oberflächenwasser und Grundwasser beeinflussen. So zeigten die Ergebnisse dieser Arbeit, dass maßgeblich die natürlich vorhandenen Flussbettstrukturen die Austauschraten und die Strömungsrichtung zwischen Oberflächenwasser und Grundwasser beeinflussen und somit den hyporheischen Austausch bestimmen. Wichtige Einflussfaktoren auf die untersuchten Austauschprozesse waren die Lage im Gerinne relativ zur Flussbettstruktur und der vorherrschende Wasserstand (Abfluss). Bedingt durch den Wasser- und Wärmeaustausch prägten sich im Untersuchungsgebiet Bereiche aus in denen die täglichen Temperaturschwingungen tief in das Sediment eindringen (Anstrombereich der Flussbettstrukturen), als auch Bereiche in denen relativ konstante Temperaturen, nahe der Grundwassertemperatur, vorherrschten. Die durchschnittliche Temperatur in der hyporheischen Zone wurde durch die saisonalen Temperaturschwankungen im Oberflächenwasser dominiert, wobei die Temperaturen entlang einzelner Fließpfade stark von der Verweilzeit des Oberflächen- oder Grundwassers im gesättigten Sediment und dem Temperaturgradienten zwischen Fluss und Grundwasser abhängig waren. Trotz der Komplexität dieser Zusammenhänge, ermöglichten die Simulationsergebnisse die Ableitung einer allgemeinen empirischen Beziehung zwischen den hyporheischen Verweilzeiten und Temperaturmustern. Sowohl die Verweilzeiten als auch die Temperatur im gesättigten Sediment haben einen entscheiden Einfluss auf biogeochemische Prozesse in dem Übergangsbereich zwischen Oberflächenwasser und Grundwasser und sind somit von besonderer Bedeutung für die Wasserqualität von Seen, Flüssen und aquatischen Ökosystemen. KW - surface water-groundwater interaction KW - Oberflächenwasser-Grundwasser Interaktion KW - hyporheic zone KW - hyporheische Zone KW - numerical modeling KW - numerische Modellierung KW - heat transport KW - Wärmetransport KW - temperature KW - Temperatur Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404319 ER - TY - THES A1 - Janetschek, Hannah T1 - Water development programs in India T1 - Entwicklungszusammenarbeit im Wassersektor Indiens BT - governance processes and effectiveness BT - Governanceprozesse und Effektivität N2 - In the past decades, development cooperation (DC) led by conventional bi- and multilateral donors has been joined by a large number of small, private or public-private donors. This pluralism of actors raises questions as to whether or not these new donors are able to implement projects more or less effectively than their conventional counterparts. In contrast to their predecessors, the new donors have committed themselves to be more pragmatic, innovative and flexible in their development cooperation measures. However, they are also criticized for weakening the function of local civil society and have the reputation of being an intransparent and often controversial alternative to public services. With additional financial resources and their new approach to development, the new donors have been described in the literature as playing a controversial role in transforming development cooperation. This dissertation compares the effectiveness of initiatives by new and conventional donors with regard to the provision of public goods and services to the poor in the water and sanitation sector in India. India is an emerging country but it is experiencing high poverty rates and poor water supply in predominantly rural areas. It lends itself for analyzing this research theme as it is currently being confronted by a large number of actors and approaches that aim to find solutions for these challenges . In the theoretical framework of this dissertation, four governance configurations are derived from the interaction of varying actor types with regard to hierarchical and non-hierarchical steering of their interactions. These four governance configurations differ in decision-making responsibilities, accountability and delegation of tasks or direction of information flow. The assumption on actor relationships and steering is supplemented by possible alternative explanations in the empirical investigation, such as resource availability, the inheritance of structures and institutions from previous projects in a project context, gaining acceptance through beneficiaries (local legitimacy) as a door opener, and asymmetries of power in the project context. Case study evidence from seven projects reveals that the actors' relationship is important for successful project delivery. Additionally, the results show that there is a systematic difference between conventional and new donors. Projects led by conventional donors were consistently more successful, due to an actor relationship that placed the responsibility in the hands of the recipient actors and benefited from the trust and reputation of a long-term cooperation. The trust and reputation of conventional donors always went along with a back-up from federal level and trickled down as reputation also at local level implementation. Furthermore, charismatic leaders, as well as the acquired structures and institutions of predecessor projects, also proved to be a positive influencing factor for successful project implementation. Despite the mixed results of the seven case studies, central recommendations for action can be derived for the various actors involved in development cooperation. For example, new donors could fulfill a supplementary function with conventional donors by developing innovative project approaches through pilot studies and then implementing them as a supplement to the projects of conventional donors on the ground. In return, conventional donors would have to make room the new donors by integrating their approaches into already programs in order to promote donor harmonization. It is also important to identify and occupy niches for activities and to promote harmonization among donors on state and federal sides. The empirical results demonstrate the need for a harmonization strategy of different donor types in order to prevent duplication, over-experimentation and the failure of development programs. A transformation to successful and sustainable development cooperation can only be achieved through more coordination processes and national self-responsibility. N2 - In der Entwicklungszusammenarbeit (EZ) wurden in den vergangenen Jahrzehnten herkömmliche bi- und multilaterale EZ-Geber durch eine Vielzahl kleinerer, privater oder privat-öffentlicher Geber ergänzt. Es stellt sich nun die Frage nach der Effektivität dieser neuen Geber im Vergleich zu den bisherigen. Die neuen Geber setzen ebenfalls EZ-Maßnahmen um und haben sich einem Mehr an Pragmatismus, Innovation und Flexibilität verschrieben. Sie stehen jedoch auch in der Kritik, die Funktion der lokalen Zivilgesellschaft zu schwächen und in fragilen Kontexten eine intransparente und oft umstrittene Alternative zur staatlichen Daseinsvorsorge darzustellen. Das transformative Potential dieser neuen Geber durch zusätzliche EZ-Gelder und für bessere Entwicklung ist in der Literatur umstritten. In der vorliegenden Dissertation erfolgt ein Vergleich der neuen und herkömmlichen Geber hinsichtlich ihrer Effektivität in der Erbringung von öffentlichen Gütern und Dienstleistungen im Wasser- und Abwasserbereich in Indien. Indien bietet sich als Länderkontext für die Untersuchung dieser Forschungsfrage insbesondere an, da es sich als Schwellenland mit gegenwärtig immer noch sehr hoher Armut und schlechter Wasserversorgung in vorwiegend ländlichen Gebieten einer Vielzahl von Akteuren und Ansätzen zur Lösung dieser Herausforderungen gegenüber sieht. Im theoretischen Rahmen der Dissertation werden aus dem Zusammenspiel von Akteurstypen und hierarchischer und nicht-hierarchischer Steuerung, vier Governance-Typen entwickelt. Diese vier Steuerungsmodi unterscheiden sich hinsichtlich der Entscheidungsfindung, Rechenschaftslegung und Delegierung von Aufgaben bzw. Richtung des Informationsflusses. Diese Governance-Typen werden in der empirischen Untersuchung um mögliche alternative Erklärungen ergänzt wie Ressourcenverfügbarkeit, Bedeutung von vorhergehenden Projekten in einem Projektkontext, lokale Legitimität als Türöffner und Machtasymmetrien im Projektkontext. Die empirische Analyse von sieben Fällen macht deutlich, dass die Akteursbeziehung eine notwendige Bedingung für erfolgreiche und eigenständige Projektumsetzung in der EZ ist. Darüber hinaus belegen die Ergebnisse, dass es einen systematischen Unterschied zwischen herkömmlichen und neuen Gebern gibt. Die Projekte der herkömmlichen Geber waren durchweg erfolgreicher und wiesen alle eine Akteursinteraktion auf, die die Verantwortung in die Hände des EZ-Empfängers legte und darüber hinaus von Vertrauen und Reputation einer langjährigen Zusammenarbeit profitierten. Der Erfolg der herkömmlichen Geber basierte vorwiegend auf der Rückendeckung der lokalen Umsetzung durch die nationale Ebene. Neben charismatischen Führungsfiguren stellten sich auch übernommene Strukturen und Akteure von Vorgängerprojekten als positive Einflussfaktoren für eine erfolgreiche Projektumsetzung heraus. Aus den Erfolgen und Misserfolgen der sieben hier untersuchten Fälle lassen sich zentrale Handlungsempfehlungen für die unterschiedlichen Akteure der EZ-Umsetzung ableiten. So könnten neue Geber eine Ergänzungsfunktion zu herkömmlichen Gebern erfüllen, indem sie durch Pilotstudien innovative Projektansätze entwickeln und diese dann als Ergänzung zu den Projekten herkömmlicher Geber vor Ort umsetzen. Herkömmliche Geber müssten im Gegenzug in ihren Programmen Raum für die Integration der Ansätze von neuen Gebern schaffen, um so eine Geberharmonisierung zu fördern. Auf staatlicher und bundesstaatlicher Nehmerseite gilt es ebenfalls, Nischen für Aktivitäten zu identifizieren und zu besetzen und die Harmonisierung unter den Gebern zu fördern. Die empirischen Ergebnisse belegen die Notwendigkeit einer Harmonisierungsstrategie von unterschiedlichen Gebertypen, um vor Ort Duplikation, Experimente und Misserfolge von EZ-Programmen zu verhindern. Eine Transformation zu einer erfolgreichen und nachhaltigen EZ kann nur durch mehr Koordinationsprozesse und nationale Eigenverantwortung erreicht werden. KW - governance KW - aid effectiveness KW - water development aid KW - development aid India KW - donor harmonization KW - actor interplay KW - new donors KW - conventional donors KW - donor reputation KW - governance KW - Wirksamkeit der Entwicklungszusammenarbeit KW - Wasserentwicklungszusammenarbeit KW - Entwicklungszusammenarbeit mit Indien KW - Geberharmonisierung KW - Akteursinteraktion KW - neue Geber KW - herkömmliche Geber KW - Reputation der Geber Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-401337 ER - TY - THES A1 - Heiden, Sophia L. T1 - Water at α-alumina surfaces T1 - Wasser auf alpha-Aluminiumoxid-Oberflächen BT - energetics, dynamics and kinetics BT - Energetik, Dynamik und Kinetik N2 - The (0001) surface of α-Al₂O₃ is the most stable surface cut under UHV conditions and was studied by many groups both theoretically and experimentally. Reaction barriers computed with GGA functionals are known to be underestimated. Based on an example reaction at the (0001) surface, this work seeks to improve this rate by applying a hybrid functional method and perturbation theory (LMP2) with an atomic orbital basis, rather than a plane wave basis. In addition to activation barriers, we calculate the stability and vibrational frequencies of water on the surface. Adsorption energies were compared to PW calculations and confirmed PBE+D2/PW stability results. Especially the vibrational frequencies with the B3LYP hybrid functional that have been calculated for the (0001) surface are in good agreement with experimental findings. Concerning the barriers and the reaction rate constant, the expectations are fully met. It could be shown that recalculation of the transition state leads to an increased barrier, and a decreased rate constant when hybrid functionals or LMP2 are applied. Furthermore, the molecular beam scattering of water on (0001) surface was studied. In a previous work by Hass the dissociation was studied by AIMD of molecularly adsorbed water, referring to an equilibrium situation. The experimental method to obtaining this is pinhole dosing. In contrast to this earlier work, the dissociation process of heavy water that is brought onto the surface from a molecular beam source was modeled in this work by periodic ab initio molecular dynamics simulations. This experimental method results in a non-equilibrium situation. The calculations with different surface and beam models allow us to understand the results of the non-equilibrium situation better. In contrast to a more equilibrium situation with pinhole dosing, this gives an increase in the dissociation probability, which could be explained and also understood mechanistically by those calculations. In this work good progress was made in understanding the (1120) surface of α-Al₂O₃ in contact with water in the low-coverage regime. This surface cut is the third most stable one under UHV conditions and has not been studied to a great extent yet. After optimization of the clean, defect free surface, the stability of different adsorbed species could be classified. One molecular minimum and several dissociated species could be detected. Starting from these, reaction rates for various surface reactions were evaluated. A dissociation reaction was shown to be very fast because the molecular minimum is relatively unstable, whereas diffusion reactions cover a wider range from fast to slow. In general, the (112‾0) surface appears to be much more reactive against water than the (0001) surface. In addition to reactivity, harmonic vibrational frequencies were determined for comparison with the findings of the experimental “Interfacial Molecular Spectroscopy” group from Fritz-Haber institute in Berlin. Especially the vibrational frequencies of OD species could be assigned to vibrations from experimental SFG spectra with very good agreement. Also, lattice vibrations were studied in close collaboration with the experimental partners. They perform SFG spectra at very low frequencies to get deep into the lattice vibration region. Correspondingly, a bigger slab model with greater expansion perpendicular to the surface was applied, considering more layers in the bulk. Also with the lattice vibrations we could obtain reasonably good agreement in terms of energy differences between the peaks. N2 - Das wissenschaftliche Interesse an der Untersuchung von Oberflächen hat in den letzten Jahren stark zugenommen. Oberflächen spielen unter anderem in Katalyse, Nanotechnologie und Korrosionsforschung eine wichtige Rolle. Es wurden nicht nur Fortschritte im experimentellen Bereich, sondern auch in der theoretischen, computergestützten Analyse dieser Systeme erzielt. Durch leistungsstärkere Computer und ausgefeiltere Software mit immer besseren Methoden können heutzutage wesentlich größere, komplexere Systeme mit höherer Genauigkeit untersucht werden, als noch vor zehn Jahren. In dieser Arbeit wurden derartige Rechnungen angewandt, um Prozesse der α-Aluminiumoxid-Oberfläche besser zu verstehen. Es wurde in drei Teilprojekten wissenschaftlichen Fragestellungen zu Aufbau, Stabilität, Wasseradsorption, Reaktivität und Schwingungseigenschaften nachgegangen, letztere auch im Vergleich zu experimentellen Befunden. Im ersten Teilprojekt wurde auf ein bekanntes Problem der genutzten Methodik eingegangen. Wie aus der Literatur bekannt ist, werden bei dem Dichtefunktional PBE, das in dieser Arbeit hauptsächlich verwendet wurde, die Reaktionsbarrieren unterschätzt, und somit Raten überschätzt. Mit Hilfe zweier unterschiedlicher Methoden konnte dieses Problem deutlich verbessert werden, sodass die Barrieren erhöht und die Raten verringert wurden, was mehr dem Bild der Realität entspricht. Diese Methoden sind zum einen die sogenannten Hybridfunktionale und zum anderen lokale Møller-Plesset Störungstheorie. Außerdem wurden Adsorptionsenergien und Vibrationen berechnet und mit vorherigen Rechnungen, sowie experimentellen Daten verglichen. In einem zweiten Teilprojekt wurde die Streuung von Wasser an der Oberfläche untersucht. In einem Molekularstrahlexperiment konnte kürzlich nachgewiesen werden, dass sich die Dissoziationswahrscheinlichkeit im Vergleich zur Pinhole-Dosierung erhöht (beides sind Methoden um Wasser auf die Oberfläche aufzubringen). In dieser Arbeit konnte dies durch Simulationen nachgewiesen und mechanistisch aufgeklärt werden. Ein weiteres Teilprojekt befasste sich mit der (112‾0)-Oberfläche, zu der es bislang wenige Untersuchungen gibt. Hier wurde zunächst die Oberfläche ohne Wasser untersucht, um die Beschaffenheit zu erkunden. Anschließend wurde das Verhalten eines Wassermoleküls auf der Oberfläche untersucht. Es kann sowohl molekular adsorbieren, als auch in seine Bestandteile OH und H dissoziiert vorliegen, wobei die dissoziierten Strukturen wesentlich stabiler sind. Die Reaktionsraten für Dissoziation und Diffusion wurden untersucht. Erstere sind sehr schnell (Größenordnung 10¹² pro Sekunde) und letztere können einen weiten Bereich abdecken (10⁻¹³-10⁶s⁻¹). Im Vergleich mit oberflächenspezifischen Schwingungsspektroskopie-Experimenten konnte gute Übereinstimmung gefunden werden. So waren wir in der Lage, die jeweiligen OD Gruppen jeder Schwingung den experimentellen Daten zuzuweisen, wobei D hier Deuterium, also schwerer Wasserstoff ist. KW - surface science KW - alumina KW - water at alumina KW - theoretical chemistry KW - theoretische Chemie KW - Aluminiumoberfläche KW - Wasser auf Aluminiumoxid KW - Oberflächenchemie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426366 ER - TY - THES A1 - Meyerhöfer, Wolfram T1 - Was testen Tests? Objektiv-hermeneutische Analysen am Beispiel von TIMSS und PISA T1 - What do tests test? Objective-hermeneutic analyses illustrated by TIMSS and PISA N2 - Als ich anfing, ein Thema für meine Promotion zu erarbeiten, fand ich Massentests ziemlich beeindruckend. TIMSS: über 500000 Schüler getestet. PISA: 180000 Schüler getestet. Ich wollte diese Datenbasis nutzen, um Erkenntnisse für die Gestaltung von Unterricht zu gewinnen. Leider kam ich damit nicht weit. Je tiefer ich mich mit den Tests und den dahinterstehenden Theorien befasste, desto deutlicher schälte sich heraus, dass mit diesen Tests keine neue Erkenntnis generiert werden kann. Fast alle Schlussfolgerungen, die aus den Tests gezogen werden, konnten gar nicht aus den Tests selbst gewonnen werden. Ich konzentrierte mich zunehmend auf die Testaufgaben, weil die Geltung der Aussage eines Tests an der Aufgabe erzeugt wird: In der Aufgabe gerinnt das, was die Tester als „mathematische Leistungsfähigkeit“ konstruieren. Der Schüler wiederum hat nur die Aufgabe vor sich. Es gibt nur „gelöst“ (ein Punkt) und „ungelöst“ (kein Punkt). Damit der Schüler den Punkt bekommt, muss er an der richtigen Stelle ankreuzen, oder er muss etwas hinschrei-ben, wofür der Auswerter einen Punkt gibt. In der Dissertation wird untersucht, was die Aufgaben testen, was also alles in das Konstrukt von „mathematischer Leistungsfähigkeit“ einfließt, und ob es das ist, was der Test testen soll. Es stellte sich durchaus erstaunliches heraus: - Oftmals gibt es so viele Möglichkeiten, zur gewünschten Lösung (die nicht in jedem Fall die richtige Lösung ist) zu gelangen, dass man nicht benennen kann, welche Fähigkeit die Aufgabe eigentlich misst. Das Konstrukt „mathematische Leistungsfähigkeit“ wird damit zu einem zufälligen. - Es werden Komponenten von Testfähigkeit mitgemessen: Viele Aufgaben enthalten Irritationen, welche von testerfahrenen Schülern leichter überwunden werden können als von testunerfahrenen. Es gibt Aufgaben, die gelöst werden können, ohne dass man über die Fähigkeit verfügt, die getestet werden soll. Umgekehrt gibt es Aufgaben, die man eventuell nicht lösen kann, obwohl man über diese Fähigkeit verfügt. Als Kernkompetenz von Testfähigkeit stellt sich heraus, weder das gestellte mathematische Problem noch die angeblichen realen Proble-me ernst zu nehmen, sondern sich statt dessen auf das zu konzentrieren, was die Tester angekreuzt oder hinge-schrieben sehen wollen. Prinzipiell erweist es sich als günstig, mittelmäßig zu arbeiten, auf intellektuelle Tiefe in der Auseinandersetzung mit den Aufgaben also zu verzichten. - Man kann bei Multiple-Choice-Tests raten. Die PISA-Gruppe behauptet zwar, dieses Problem technisch über-winden zu können, dies erweist sich aber als Fehleinschätzung. - Sowohl bei TIMSS als auch bei PISA stellt sich heraus, dass die vorgeblich verwendeten didaktischen und psychologischen Theorien lediglich theoretische Mäntel für eine theoriearme Testerstellung sind. Am Beispiel der Theorie der mentalen Situationsmodelle (zur Bearbeitung von realitätsnahen Aufgaben) wird dies ausführlich exemplarisch ausgearbeitet. Das Problem reproduziert sich in anderen Theoriefeldern. Die Tests werden nicht durch Operationalisierungen von Messkonstrukten erstellt, sondern durch systematisches Zusammenstückeln von Aufgaben. - Bei PISA sollte „Mathematical Literacy“ getestet werden. Verkürzt sollte das die Fähigkeit sein, „die Rolle, die Mathematik in der Welt spielt, zu erkennen und zu verstehen, begründete mathematische Urteile abzugeben und sich auf eine Weise mit der Mathematik zu befassen, die den Anforderungen des gegenwärtigen und künftigen Lebens einer Person als eines konstruktiven, engagierten und reflektierten Bürgers entspricht“ (PISA-Eigendarstellung). Von all dem kann angesichts der Aufgaben keine Rede sein. - Bei der Untersuchung des PISA-Tests drängte sich ein mathematikdidaktischer Habitus auf, der eine separate Untersuchung erzwang. Ich habe ihn unter dem Stichwort der „Abkehr von der Sache“ zusammengefasst. Er ist geprägt von Zerstörungen des Mathematischen bei gleichzeitiger Überbetonung des Fachsprachlichen und durch Verwerfungen des Mathematischen und des Realen bei realitätsnahen Aufgaben. Letzteres gründet in der Nicht-beachtung der Authentizität sowohl des Realen als auch des Mathematischen. Die Arbeit versammelt neben den Untersuchungen zu TIMSS und PISA ein ausführliches Kapitel über das Prob-lem des Testens und eine Darstellung der Methodologie und Praxis der Objektiven Hermeneutik. KW - Tests KW - PISA KW - Objektive Hermeneutik KW - Habitus KW - Mathematikaufgaben KW - Tests KW - PISA KW - Objektive Hermeneutik KW - Habitus KW - Mathematics Tasks Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-12848 ER - TY - THES A1 - Bärstecher, Felix Emanuel T1 - Was machen Schulleiter tatsächlich und welche Faktoren beeinflussen diese ausgeführten Tätigkeiten? T1 - What do school principals really do and which factors do influence these tasks? N2 - Während die theoretische Arbeitsbeschreibung und das Rollenbild von Schulleitern vielfach in der Forschung aufgegriffen wurde, gibt es – wie übrigens im gesamten Bereich Public Management – nur wenige empirische Untersuchungen, die aus einer betriebswirtschaftlichen Managementbetrachtung heraus untersuchen, was Schulleiter wirklich machen, d.h. welchen Tätigkeiten und Aufgaben die genannten Personen nachgehen und welche Unterschiede sich feststellen lassen. Besondere Relevanz erhält die Thematik durch das sich wandelnde Aufgabenbild des Schulleiters, getrieben insbesondere durch die zusätzliche Autonomie der Einzelschule, aber auch durch die Fokussierung auf die Performance und Wirksamkeit der Einzelschule und verbunden damit, die Abhängigkeit dieser von der Arbeit des Schulleiters. Hier bildet das Verständnis der Aufgaben und Tätigkeiten eine wichtige Grundlage, die jedoch unzureichend erforscht ist. Mit Hilfe einer explorativen Beobachtung von 15 Schulleiterinnen und Schulleitern und damit einer empirischen Untersuchung von insgesamt 7591 Arbeitsminuten und 774 Aktivitäten in Kombination mit ausführlichen qualitativen, halboffenen Interviews wird durch diese Arbeit eine detaillierte Betrachtung des tatsächlichen Schulleitungsmanagementhandelns möglich. So wird sichtbar, dass sich die Aufgaben und Tätigkeiten der Schulleiter in zentralen Bereichen unterscheiden und eine Typologisierung entlang von Rollenbeschreibungen und Leadership Behavior zu kurz greift. Es konnte zum ersten Mal in dieser Ausführlichkeit innerhalb des deutschen Schulsystems gezeigt werden, dass Schulleiter Kommunikationsmanager sind. Darüber hinaus entwickelt das hier dokumentierte Forschungsvorhaben Hypothesen zu den Faktoren, die einen Einfluss auf die Aufgaben und Tätigkeiten haben und beschreibt dezidiert Implikationen, die diese Erkenntnisse auf die Tätigkeit des Schulleiters, die weitere Forschung aber auch die politische Rahmengestaltung und, damit verbunden, die Weiterentwicklung des Schulsystems haben. N2 - Whereas the theoretical job description and the role of school principals has been taken up quite often in scholarly research, there are only a few studies that focus on the tasks of principals from a managerial perspective and examine the differences among principals. This lack of research is quite common in the world of public management research. Special relevance and importance should be attributed to the topic as the role and the bundle of tasks of a principal are changing especially caused by the growing autonomy endowed on schools. Another reason is the focus on school effectiveness and the principal`s influence on this effectiveness. Here is where the understanding of the tasks of a principal lays the basic foundation for any further reserach. However, this foundation has not been studied adequately yet. Using the technique of explorative observation (or shadowing) 15 principals were observed and therefore the empirically obtained data base of 7591 work minutes and 774 activities in combination with half-structured, qualitative interviews allows this paper a detailed examination of the real tasks and activities of school management. It becomes obvious that the tasks and activities of principals differ in pivotal areas. Therefore a typology based on mere role descriptions or leadership behavior segmentation cannot be sufficient. This paper is first to elaborately demonstrate for the German school system that principals are in fact communication managers. This result contrasts with some of the hitherto generated research results and existing hypotheses. Moreover, the research project described in this paper develops hypotheses explaining the effect of certain factors on the tasks of principals and describes in detail implications of these insights for school management, further research as well as for the political agenda and the development of the school system itself. KW - Public Management KW - Schulleitung KW - Schulleiter KW - Tätigkeiten KW - Schulleiterwirksamkeit KW - public management KW - school management KW - principal KW - headmaster KW - tasks KW - school effectiveness Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80109 ER - TY - THES A1 - Schmider, Stephan T1 - Was ist HipHop? T1 - What is hip-hop? BT - Diskurse, Praktiken und genuine Eigenschaften eines Kulturphänomens BT - discourses, practices and genuine characteristics of a cultural phenomenon N2 - Es handelt sich bei der vorliegenden Dissertation um eine investigative Forschungsarbeit, die sich mit dem dynamisch wandelnden HipHop-Phänomen befasst. Der Autor erläutert hierbei die anhaltende Attraktivität des kulturellen Phänomens HipHop und versucht die Tatsache der stetigen Reproduzierbarkeit des HipHops genauer zu erklären. Daher beginnt er mit einer historischen Diskursanalyse der HipHop-Kultur. Er analysiert hierfür die Formen, die Protagonisten und die Diskurse des HipHops, um diesen besser verstehen zu können. Durch die Herausarbeitung der genuinen Eigenschaft der Mehrfachkodierbarkeit des HipHops werden gängige Erklärungsmuster aus Wissenschaft und Medien relativiert und kritisiert. Der Autor kombiniert in seiner Studie kultur- und erziehungswissenschaftliche Literatur mit diversen aktuellen und historischen Darstellungen und Bildern. Es werden vor allem bildbasierte Selbstinszenierungen von HipHoppern und Selbstzeugnisse aus narrativen Interviews, die er selbst mit verschiedenen HipHoppern in Deutschland geführt hat, ausgewertet. Neben den narrativen Interviews dient vor allem die Bildinterpretation nach Bohnsack als Quelle zur Bildung der These der Mehrfachkodierbarkeit. Hierbei werden zwei Bilder der HipHopper Lady Bitch Ray und Kollegah nach Bohnsack (2014) interpretiert und gezeigt wie HipHop neben der lyrischen und der klanglichen Komponente auch visuell inszeniert und produziert wird. Hieraus wird geschlussfolgert, dass es im HipHop möglich ist konträre Sichtweisen bei gleichzeitiger Anwendung von typischen Kulturpraktiken wie zum Beispiel dem Boasting darzustellen und zu vermitteln. Die stetige Offenheit des HipHops wird durch Praktiken wie dem Sampling oder dem Battle deutlich und der Autor erklärt, dass durch diese Techniken die generative Eigenschaft der Mehrfachkodierbarkeit hergestellt wird. Damit vertritt er eine Art Baukasten-Theorie, die besagt, dass sich prinzipiell jeder aus dem Baukasten HipHop, je nach Vorliebe, Interesse und Affinität, bedienen kann. Durch die Vielfalt an Meinungen zu HipHop, die der Autor durch die Kodierung der geführten narrativen Interviews erhält, wird diese These verdeutlicht und es wird klar, dass es sich bei HipHop um mehr als nur eine Mode handelt. HipHop besitzt die prinzipielle Möglichkeit durch die Offenheit, die er in sich trägt, sich stetig neu zu wandeln und damit an Beliebtheit und Popularität zuzunehmen. Die vorliegende Arbeit erweitert damit die immer größer werdende Forschung in den HipHop-Studies und setzt wichtige Akzente um weiter zu forschen und HipHop besser verständlich zu machen. N2 - The described dissertation is an investigative research paper, covering the dynamic and ever-changing phenomena of hip-hop. The author will explain the continued attraction drawn by the hip-hop culture and will attempt to explain its’ reproduceable impact in more detail. To achieve this, he starts with a historic discourse analysis of the hip-hop culture. In order to give a greater understanding of the subject he analyses the different forms, protagonists as well as the dialogue of hip-hop. The author will show that hip-hop has multi-layered characteristics and through elaboration using scientific tools and media sources he will further qualify and criticize the subject. The research combines cultural and educational science literature with different time-relevant and historic presentations alongside graphic images. Especially self-staged photos of rap artists and personal testimonials from interviews, which the author personally conducted, with a variety of artists throughout Germany, will be analysed. Besides the accounts reflected in the interviews a large emphasis has been focused on imagery interpretation in line with Bohnsack, which will serve as the source to the multi-layering thesis. In this connection two images of artists Lady Bitch Ray and Kollegah are interpreted according to Bohnsack (2014), to show that hip-hop does not only have a lyrical and musical component to it but is also visually staged and produced. This research work will conclude that it is possible in hip-hop culture to present contrasting viewpoints through the use of cultural traditions, such as ‘boasting’. The ongoing open-mindedness of hip-hop will become clear through the analysis of ‘sampling’ and the ‘rap battle’, the author will proof how such traditional techniques create multi-layered hip-hop characteristics. With this conclusion he supports a type of modular theory, stating that principally anybody can take advantage of what hip-hop as to offer, regardless of their preferences, interests, or affections. Through the diversity of opinions in hip-hop culture, which the author is presented with through the interpretation of the interviews, his proposition becomes clear and he is able to conclude that the phenomenon of hip-hop is more than just a temporary fad. Hip-hop has the fundamental potential to continuously change, and through its open-mindedness manages to keep increasing its’ popularity and demand over time. This research paper builds on the continuous interest into the research of hip-hop culture and asks important questions, which validates further research into the topic and aims to make hip-hop more accessible. KW - HipHop KW - Kultur KW - Kulturwissenschaft KW - Gangsta-Rap KW - Authentizität KW - Kollegah KW - Lady Bitch Ray KW - Struggle KW - Battle KW - Rap KW - Musik KW - Jugendkultur KW - Sampling KW - Beat KW - Politik KW - Migrantenkultur KW - HipHop KW - cultural studies KW - Rap KW - Music KW - Sample KW - Track KW - Battle KW - Lady Bitch Ray KW - Kollegah KW - dynamic KW - discourse KW - diversity KW - multi-layered Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-523759 ER - TY - THES A1 - Ritter, Andreas T1 - Wandlungen in der Steuerung des DDR-Hochleistungssports in den 1960er und 1970er Jahren N2 - Die intensive Auswertung unterschiedlicher schriftlicher und mündlicher Quellen sowie die Erschließung von damals "geheimer" Literatur für die Forschung heute ermöglicht eine differenzierte Rekonstruktion historischer Abläufe. Die vorliegende Arbeit nutzt diesen Zugang zur Darstellung von kleineren und größeren DDR-internen sportpolitischen Strukturwandlungen der 1960er und 1970er Jahre, die ihren Höhepunkt in einer dramatischen Umsteuerung des DDR-Hochleistungssports fanden. Es wird gezeigt, wie die Akteure unter Führung von Manfred EWALD, gewähltem Mitglied des SED-Zentralkomitees, einer Zentralfigur des DDR-Sports (vergleichbar mit der Bedeutung eines Willi DAUME im Westen) zwischen Systemzwängen und individueller Handlungsfreiheit innerhalb des Rahmens einer Diktatur in der Phase des Wechsels von Walter ULBRICHT zu Erich HONECKER eine Effektivierung des zentralistischen Modells durchsetzten (eine Parallele zum Ansatz von Monika KAISER). Im Gegensatz zu vielen kontroversen Erklärungsmodellen belegt der Verf., dass die Medaillenerfolge durch die zentrale Steuerung aller Abläufe gewährleistet wurden. Ohne SED-Auftrag wurde 1967 die "Leistungssportkommission der DDR" (LSK der DDR) gebildet. Im Unterschied zu den zahlreichen vom Verf. erstmals dargestellten Vorgängermodellen war diese SED-LSK "oberhalb des DTSB" angesiedelt und erteilte ihm Parteiaufträge - die Unterordnung des organisierten Sports unter die Autorität des Zentralkomitee machte angesichts der "Nationalen Fronten" von Armeesportvereinigung "Vorwärts" und Sportvereinigung "Dynamo" (SPITZER) jegliche zentrale Sportpolitik erst durchsetzbar. Zur "LSK der DDR" waren SED-Mitglieder abgeordnet, welche ihr Sachgebiet vertraten und nach gemeinsamer Beschlussfassung die Ergebnisse der LSK-Arbeit wiederum in ihrem jeweiligen Tätigkeitsfeld durchzusetzen hatten, was in der Diss. ausgeführt wird. Sportvertreter ebenso wie hochrangige Abgesandte der Ministerien, die mit der Produktion von Gütern für den Hochleistungssport befasst waren, gehörten den LSK-Gremien an, die auch die DDR-Sportwissenschaft steuerten; es lässt sich sogar nachweisen, dass die Herrschaft über diesen wichtigen Apparat sowie die Dopingforschung ein Hauptmotiv der LSK-Bildung gewesen ist. Durch seine Quellenorientierung und die Fülle an Belegen gibt die vorliegende Arbeit neue Anreize zur Auseinandersetzung mit dem Phänomen der Steuerung des Hochleistungssports in der DDR - auch über den Untersuchungszeitraum hinaus. Die Untersuchung wurde von der Humanwissenschaftlichen Fakultät der Universität Potsdam als Dissertation angenommen. Sie geht auf ein Stipendium dieser Universität zurück; das Verfahren konnte mit einem Prädikat abgeschlossen werden. Gutachter waren Prof. Dr. Dr. Gertrud PFISTER, Kopenhagen, Prof. Dr. Christoph KLEßMANN, Potsdam, und der Betreuer, Steady Visiting Prof. Univ. Odense, Priv.-Doz. Dr. habil. Giselher SPITZER, Berlin / Potsdam / Odense (Dänemark). N2 - The guaranteed provision of material support for the athletes used to be a precondition for success in sports: 'Competitive sports under the conditions of the GDR' - thus the source material on this early model of professional sports. The author reveals both illegal (according to the IOC regulations) payments and a new drive towards success-oriented payments at least for the coaches. The latter trend was already the result of a dramatic change in competitive sports in the GDR. Today, a thorough analysis of contemporary documents, oral testimony, and formerly classified literature allows a more nuanced reconstruction of the historical events and processes. This work shows how the organisers of GDR sports, led by Manfred EWALD (EWALD was an elected member of the SED Central Committee and a central figure in the GDR sports scene. He might be characterised as the opposite number of Willi DAUME in the FRG.) succeeded with establishing a more efficient centralistic model (here, there is a parallel with Monika KAISER's approach). Despite the constraints of the system, they brought about his change at a time of political transition from Walter ULBRICHT to Erich HONECKER. In contrast to many other, controversial interpretations, the author argues that the athletic successes originated in the central organisation of GDR sports. In 1967, the 'Competitive Sports Commission of the GDR' (LSK) was established without explicit orders from the SED. In contrast to numerous older models, which the author has discovered, this new model was positioned 'above the DTSB' and gave party orders to the DTSB - the subordination of organised sports to the authority of the Central Committee allowed the implementation of a central sports policy. Given the 'National Fronts' of the Army Sports Club Vorwärts and the Sports Club Dynamo (SPITZER), this was an especially difficult task. The LSK was composed of members of the SED. After reaching an agreement on certain issues, every member had to implement the agreed policy in his or her specific field of activity, as this dissertation shows. The LSK subcommittees consisted of representatives of the sports as well as high-ranking representatives of those ministries which supervised the production of goods needed in competitive sports. It can be demonstrated, that control over this important body as well as the doping research was an important factor in the establishment of the LSK. The work on 'Changes in the control of competitive sports in the GDR in the 1960s and 1970s', brought the awarded degree of Doctor of Philosophy with distinction by the faculty of arts of the University of Potsdam to the author. The research was sponsored by the University of Potsdam. The degree committee consisted of Professor Gertrud PFISTER (Kopenhagen), Professor Christoph KLEßMANN (Potsdam), and the dissertation supervisor, Privatdozent Dr Giselher SPITZER (Berlin, Potsdam, Odense (Denmark)). T3 - Potsdamer Studien zur Geschichte von Sport und Gesundheit - 1 KW - Geschichte / Bewegungskultur / Berufssport / Spitzensport / Hochleistungssport / Leistungssport / Sport / Leistungssportkommission / LSK / Sportpoliti KW - history / sports / professional sports / competitive sports / commission for competitive sports / politics of sports / Olympics / doping / GDR / witne Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000665 SN - 978-3-935024-61-7 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - He, Ling T1 - Wanderarbeiter in Peking : räumliche, soziale und ökonomische Aspekte eines aktuellen Migrationsproblems in China N2 - Der boomende Wirtschaftsriese China erfährt weltweit immer mehr Aufmerksamkeit von Politik, Wirtschaft, Wissenschaft und Öffentlichkeit. Gleichzeitig werden aber auch innere soziale Probleme und die großen regionalen Disparitäten des Landes angesprochen. Auch Berichte über die Situation der Wanderarbeiter in den Großstädten des Landes häufen sich. Obwohl sich die Wissenschaft ebenfalls dieses Themas angenommen hat, mangelt es noch an Untersuchungen darüber, insbesondere an solchen, die eingehend und systematisch mit empirischen Erhebungen „vor Ort“ dieses Phänomen studieren. In diese Lücke stößt die Dissertation von Ling He. In ihrem Mittelpunkt steht das Alltagsleben der Arbeitsmigranten in Peking. Dabei werden behandelt: die Migrationsmotive, die strukturellen und individuellen Rahmenbedingungen für die Arbeitsmigranten und ihre Familien, die Arbeits- und Lebensbedingungen, die Bildung finanzieller Ressourcen sowie auch die Konstruktion sozialer Netzwerke und die Integration der Migranten in Peking. Außerdem geht die Dissertation ein auf die Vorteile, die für die etwa 17 Millionen Einwohner zählende Stadt durch die Beschäftigung der etwa 3 Millionen Arbeitsmigranten geschaffen werden, und sie weist auf die sozialen und ökonomischen Probleme hin, die im Zusammenhang mit der Arbeitsmigration gelöst werden müssten. T3 - Praxis Kultur- und Sozialgeographie | PKS - 55 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59247 SN - 978-3-86956-180-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bomm, Jana T1 - Von Gold Plasmonen und Exzitonen : Synthese, Charakterisierung und Applikationen von Gold Nanopartikeln T1 - Of gold plasmons and excitons : synthesis, characterization and applications of gold nanoparticles N2 - In dieser Arbeit wurden sphärische Gold Nanopartikel (NP) mit einem Durchmesser größer ~ 2 nm, Gold Quantenpunkte (QDs) mit einem Durchmesser kleiner ~ 2 nm sowie Gold Nanostäbchen (NRs) unterschiedlicher Länge hergestellt und optisch charakterisiert. Zudem wurden zwei neue Synthesevarianten für die Herstellung thermosensitiver Gold QDs entwickelt werden. Sphärische Gold NP zeigen eine Plasmonenbande bei ~ 520 nm, die auf die kollektive Oszillation von Elektronen zurückzuführen ist. Gold NRs weisen aufgrund ihrer anisotropen Form zwei Plasmonenbanden auf, eine transversale Plasmonenbande bei ~ 520 nm und eine longitudinale Plasmonenbande, die vom Länge-zu-Durchmesser-Verhältnis der Gold NRs abhängig ist. Gold QDs besitzen keine Plasmonenbande, da ihre Elektronen Quantenbeschränkungen unterliegen. Gold QDs zeigen jedoch aufgrund diskreter Energieniveaus und einer Bandlücke Photolumineszenz (PL). Die synthetisierten Gold QDs besitzen eine Breitbandlumineszenz im Bereich von ~ 500-800 nm, wobei die Lumineszenz-eigenschaften (Emissionspeak, Quantenausbeute, Lebenszeiten) stark von den Herstellungs-bedingungen und den Oberflächenliganden abhängen. Die PL in Gold QDs ist ein sehr komplexes Phänomen und rührt vermutlich von Singulett- und Triplett-Zuständen her. Gold NRs und Gold QDs konnten in verschiedene Polymere wie bspw. Cellulosetriacetat eingearbeitet werden. Polymernanokomposite mit Gold NRs wurden erstmals unter definierten Bedingungen mechanisch gezogen, um Filme mit optisch anisotropen (richtungsabhängigen) Eigenschaften zu erhalten. Zudem wurde das Temperaturverhalten von Gold NRs und Gold QDs untersucht. Es konnte gezeigt werden, dass eine lokale Variation der Größe und Form von Gold NRs in Polymernanokompositen durch Temperaturerhöhung auf 225-250 °C erzielt werden kann. Es zeigte sich, dass die PL der Gold QDs stark temperaturabhängig ist, wodurch die PL QY der Proben beim Abkühlen (-7 °C) auf knapp 30 % verdoppelt und beim Erhitzen auf 70 °C nahezu vollständig gelöscht werden konnte. Es konnte demonstriert werden, dass die Länge der Alkylkette des Oberflächenliganden einen Einfluss auf die Temperaturstabilität der Gold QDs hat. Zudem wurden verschiedene neuartige und optisch anisotrope Sicherheitslabels mit Gold NRs sowie thermosensitive Sicherheitslabel mit Gold QDs entwickelt. Ebenso scheinen Gold NRs und QDs für die und die Optoelektronik (bspw. Datenspeicherung) und die Medizin (bspw. Krebsdiagnostik bzw. -therapie) von großem Interesse zu sein. N2 - In this thesis, the synthesis and optical characterization of spherical gold nanoparticles (NP) with diameters larger than ~ 2 nm, gold quantum dots (QDs) with diameters smaller than ~ 2 nm and gold nanorods (NRs) with different lengths are presented. In addition, a novel one-pot synthesis for the preparation of thermosensitive gold QDs is introduced. Gold NP solutions appear red colored due to their strong absorption in the visible range at ~ 520 nm. This absorption band is a result of surface plasmon resonance, which is caused by the coherent oscillation of conduction band electrons induced by an electromagnetic field. In contrast to spherical gold NPs, gold NRs show two surface plasmon bands due to their anisotropic shape, a transverse plasmon band at ~ 520 nm and a longitudinal plasmon band depending on the aspect ratio (length-to-width-ratio) of the gold NRs. If the size of the gold NPs decreases to values below ~ 2 nm, quantum-size confinement occurs and the surface plasmon band disappears. Additionally, the overlap between conduction band and valence band disappears, discrete electronic levels arise and a band gap is created. As a consequence of quantum confinement, the gold QDs show photoluminescence (PL) upon UV-irradiation. The gold QDs synthesized via the one-pot synthesis exhibit a broadband luminescence between 500 nm and 800 nm. The luminescence properties (emission peak, quantum yield, lifetime) strongly depend on the synthetic parameters like reaction temperature, stoichiometry and the surface ligand. Gold NRs and gold QDs were incoroporated into different polymers (e.g. cellulose triacetate). Polymer nanocomposite films showing optical anisotropy are obtainded by stretching polymer films containing gold NRs uniaxial in a tensile test machine. In addition to the optical characterization of gold NRs and QDs, their thermal behavior in solution as well as in different nanocomposites is studied. A shortening of the gold NRs or a transformation into spherical gold NP is observed, if the polymer nanocomposites containing gold NRs are heated above a temperature of 200 °C. The PL of the synthesized gold QDs strongly depends on the ambient temperature. An increase of PL quantum yield (QY) and PL lifetime occur, if the solutions are cooled. The best PL QY of 16.6 % was observed for octadecyl mercaptan capped gold QDs at room temperature, which could be improved to 28.6 % when cooling the solutions to -7 °C. Furthermore, optically anisotropic security labels containing gold NRs and thermosensitive security devices containing gold QDs are developed. Due to their unique optical properties, gold NRs and QDs are interesting candidates for optoelectronical as well as data storage devices and medical applications like biomedical imaging or cancer therapy. KW - Gold KW - Nanopartikel KW - Quantenpunkte KW - Nanostäbchen KW - Oberflächenplasmonenlasmonen KW - gold KW - nanoparticles KW - quantum dots KW - nanorods KW - surface plasmons Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66402 ER - TY - THES A1 - Emer, Wolfgang T1 - Von der Konzeption zur Praxis T1 - From conception to practice T1 - De la conception à la pratique BT - zur Entwicklung der Projektdidaktik am Oberstufen-Kolleg Bielefeld und ihre Impulsgebung und Modellbildung für das deutsche Regelschulwesen BT - development of didactics of project-based-learning at Oberstufen-Kolleg in Bielefeld and its influence and construction of models for the regular state school system BT - le développement de la didactique du travail en projets à l’Oberstufen-Kolleg à Bielefeld et son influence et sa construction de modèles pour le système scolaire en Allemagne N2 - Die kumulative Dissertation zur Projektdidaktik trägt den Titel „Von der Konzeption zur Praxis: Zur Entwicklung der Projektdidaktik am Oberstufen-Kolleg Bielefeld und ihre Impulsgebung und Modellbildung für das deutsche Regelschulwesen“. Die Dissertation versteht sich als beispielgebende Umsetzung und Implementierung der Projektdidaktik für das Regelschulsystem. Auf der Basis von 22 bereits erschienenen Publikationen und einer Monographie werden mit fünf methodischen Zugriffen (bildungshistorisch, dichte Beschreibung, Aktionsforschung, empirische Untersuchung an Regelschulen und Implementierungsforschung, s. Kapitel 1) in sieben Kapiteln (2- 8) des systematischen ersten Teils die Entwicklung der Unterrichtsform Projektunterricht in der BRD, Projektbegriff und Weiterentwicklung des Konzepts, Methodik, Bewertung sowie Organisation des Projektunterrichts am Oberstufen-Kolleg, der Versuchsschule des Landes NRW, in Auseinandersetzung mit der allgemeinen Projektdidaktik dargestellt sowie Formen und Verfahren der erprobten Implementierung in das Regelschulsystem präsentiert. Ein Schlusskapitel (9) fasst die Ergebnisse zusammen. Im umfangreichen Anhang finden sich verschiedene Publikationen zu Aspekten der Projektdidaktik, auf die der systematische Teil jeweils Bezug nimmt. Die bildungshistorische Analyse (Kapitel 2) untersucht das Verhältnis von pädagogischer Theorie und schulischer Praxis, die weder in Literatur und noch in Praxis genügend verbunden sind. Nach der Rezeption der gut erforschten Konzeptgeschichte pädagogischer Theorie in Anlehnung an Dewey und Kilpatrick wird durch eine erste Analyse der „Praxisgeschichte“ des Projektunterrichts auf ein Forschungsdesiderat hingewiesen, dies auch um die Projektpraxis am Oberstufen-Kolleg in Beziehung zu der in den Regelschulen setzen zu können. Dabei wurden seit 1975 sechs Entwicklungslinien herausgearbeitet: Start, Krise und ihre Überwindung durch Öffnung und Vernetzung (1975-1990), didaktisch-methodische Differenzierung und Notwendigkeit von Professionalisierung (ab 1990) sowie Schulentwicklung und Institutionalisierung (seit Ende der 1990er Jahre). Projektunterricht besteht am Oberstufen-Kolleg seit der Gründung 1974 als fest eingerichtete Unterrichtsform (seit 2002 zweimal jährlich 2 Wochen) mit dem Ziel, für das Regelschulsystem die Projektdidaktik zu erproben und weiterzuentwickeln. Als wichtige praxisorientierte Ziele wurden ein praxistauglicher Begriff, Bildungswert und Kompetenzen im Unterschied zum Lehrgang herausgearbeitet (z.B. handlungs- und anwendungsorientierte Kompetenzen) und das Verhältnis zum Fachunterricht bestimmt (Kapitel 3). Letzteres wurde am Beispiel des Fachs Geschichte entwickelt und exemplarisch in Formen der Verzahnung dargestellt (Kapitel 6). Auch für die methodische Dimension galt, die allgemeine Projektdidaktik weiterzuentwickeln durch ihre Abgrenzung zu anderen Methoden der Öffnung von Schule und Unterricht (Kapitel 4). Dabei wurde als zentrales methodisches Prinzip die Handlungsorientierung bestimmt sowie sieben Phasen und jeweilige Handlungsschritte festgelegt. Besonders Planung und Rollenwechsel bedürfen dabei besonderer Beachtung, um Selbsttätigkeit der ProjektteilnehmerInnen zu erreichen. Verschiedene methodische „Etüden“ ( z.B. Gruppenarbeit, recherchieren, sich öffentlich verhalten), handlungsorientierte Vorformen und projektorientiertes Arbeiten sollten die Vollform Projektunterricht vorbereiten helfen. Die Bewertung von Projekten (Kapitel 5) stellt andere Anforderungen als der Lehrgang, weil sie unterschiedliche Bewertungsebenen (z.B. Prozessbedeutung, Produktbeurteilung, Gruppenbewertung) umfasst. Dazu sind am Oberstufen-Kolleg andere Bewertungsformen als die Ziffernnote entwickelt worden: z.B. ein „Reflexionsbericht“ als individuelle Rückmeldung von SchülerInnen und LehrerInnen und ein „Zertifikat“ für besondere Leistungen im Projekt. Zentral für die Entwicklung von Projektunterricht ist jedoch die Organisationsfrage (Kapitel 7). Dazu bedarf es einer Organisationsgruppe Projekt, die die Unterrichtsform didaktisch betreut und in einem Hearing die angemeldeten Projekte berät. Das Oberstufen-Kolleg hat damit eine entwickelte „Projektkultur“ organisatorisch umgesetzt. Für eine empirische Untersuchung an sechs Regelschulen in Ostwestfalen ist dann eine idealtypische Merkmalsliste von schulischer „Projektkultur“ als Untersuchungsinstrument entstanden, das zugleich als Leitlinie für Schulentwicklung im Bereich Projektlernen in den Regelschulen dienen kann. Zu dieser Implementierung (Kapitel 8) wurden Konzepte und Erfahrungen vom Oberstufen-Kolleg für schulinterne und schulexterne Fortbildungsformen sowie eine exemplarische Fortbildungseinheit entwickelt. So konnten in zahlreichen Lehrerfortbildungen durch die Versuchsschule Impulse für das Regelschulsystem gegeben werden. N2 - The cumulative dissertation which regards didactics of project-based-learning (pbl – “Projektdidaktik”) is entitled “From conception to practice: Development of didactics of project-based-learning at Oberstufen-Kolleg in Bielefeld and its influence and construction of models for the regular state school system”. Oberstufen-Kolleg is an experimental school of the land North Rhine-Westphalia in the university town of Bielefeld, Germany. The dissertation gives insight into the implementation of pbl didactics in Germany’s state school system. It sums up the author’s former research published in 22 articles (added as appendix) and a monograph. The introduction presents the used methods: educational history, thick description (C. Geertz), action research, empirical study at state schools and research of implementation. In chapter 2 the analysis of educational history regards the relationship of educational theory and practice in schools, which are not sufficiently connected neither in pedagogical literature nor in educational practice. While pbl’s theory is well explored the dissertation points out that history of practice in schools (“Praxisgeschichte”) still remains an urgent desideratum of research and gives a first analysis. Since 1975 six trends of development can be distinguished in this history of practice: start (from 1975), crisis (after 1983) and his solution with opening schools and their networking (1983-1990), differentiation of didactics and methods, necessity of professionalisation (both from 1990), and finally internal development of schools and institutionalisation of pbl (from the end of the 1990ties). Pbl as an institutionalized form of teaching exists at Oberstufen-Kolleg since his foundation in 1974 with the objective to explore and develop didactics of projects. Important aims were the construction of a notion of pbl adapted to practice, educational values and competences in contrast to the master teaching (“Lehrgang”): for example competences of practical and applied learning (chapter 3). The relation and connection between master teaching and pbl is analyzed using the example of history teaching at Oberstufen-Kolleg (chapter 6). Also the methodical dimension in the didactics of pbl has to be considered and opposed to other methods of opening schools (chapter 4). The central principle of pbl’s methodical dimension is the activity-orientated learning (“Handlungsorientierung”) which distinguishes seven steps. Especially planning and changing of roles are found to be relevant for selfconscious acting of pupils. The evaluation of projects (called “judging” by Kilpatrick) needs other perspectives and forms than master teaching (chapter 5). In Oberstufen-Kolleg some forms of evaluation are created, for example the “Reflexionsbericht” (paper of reflection), which contains mutual feedback of pupils and teachers on several points of the project. A successful pbl depends on an institutionalized structure of organization within the schools (chapter 7). To that end, in Oberstufen-Kolleg a “culture of projects” has been established. An organization group takes care of finding projects, didactics, evaluation and organizes a day of presentation (called “Produkttag”). This is an example of how pbl can find a way in the regular state school system. However, empirical findings based on six regular state schools in Westphalia suggests that necessary elements of a “culture of projects” were not yet really reflected and organized. Finally, chapter 8 describes those forms of implementing pbl in schools and teacher training realized by the organization group of Oberstufen-Kolleg in regular state schools. The dissertation shows ways how to change the school system in order to reinforce practical and applied learning and thereby self-confidence of pupils. N2 - La dissertation cumulative concernant la didactique du travail en projet («Projektdidaktik») porte le titre: «De la conception à la pratique: Le développement de la didactique du travail en projets à l’Oberstufen-Kolleg à Bielefeld et son influence et sa construction de modèles pour le système scolaire en Allemagne». L’Oberstufen-Kolleg est une école expérimentale du Land Rhenanie-Westphalie. La dissertation veut donner des exemples pour implanter l’enseignement du travail en projets dans les écoles normales, surtout dans les lycées. Basés sur 22 articles déjà publiés avant et documentés dans une ample appendice et une monographie déjà publiée le sujet de l’enseignement du travail en projets est dévéloppé en neuf chapitres. Chapitre 1 développe le cadre et les buts de la dissertation et la réflexion des méthodes appliquées: l’histoire de l’enseignement, description dense, recherche d’action, études empiriques et recherche de l’implémentation. Chapitre 2 analyse la relation entre la théorie pédagogique du projet et la pratique dans les écoles. Tandis que l’histoire de la conception est depuis Dewey et Kilpatrick bien élaborée par des théoriciens l’histoire de l’application et de la pratique reste une tâche de recherche. Une première esquisse faite par l’auteur comprend la période à partir de 1975 jusqu’à aujourd’hui. Elle distingue six étappes (début, crise et son dépassement par ouverture et coopération des écoles 1975 à 1990; différenciation didactique et necessité de formation à partir de 1990 et institutionalisation depuis la fin des années 90). L’Oberstufen-Kolleg a institutionalisé l’enseignement obligatoire des projets à partir de 1975 avec deux fois deux semaines de travail en projets dans l’année, plus que les écoles normales allemandes en général. Chapitre 3 développe une notion du travail en projets apte pour la pratique et ses valeurs et compétences pédagogiques. La différence et la coopération entre cours magistral dans les matières et le travail en projets sont réflléchies et au chapitre 6 concrétisées pour la matière de l’histoire. Chapitre 4 élabore la dimension méthodique du travail en projets qui distingue par exemple sept phases d’un projet et sa substructure de l’orientation à l’action («Handlungsorientierung»). Chapitre 5 traite le problème de l’évalution du travail en projets qui demande d’autres aspects que le cours magistral, p.ex. la signification du procès de travail, la valeur du produit et du travail en groupe. Pour cette évaluation différente on a développé à l’Oberstufen-Kolleg deux instruments: le «rapport reflexif« («Reflexionsbericht») comme feedback individuel par écrit de l’élève et du professeur et le «certificat» pour des performances speciales accordées aux compétences du travail en projet (p.ex. la compétence d’organisation). Ce dernier instrument est rendu seulement à des élèves qui se sont engagés spécialement dans certaines compétences et il peut servir à accompagner le bulletin si l’élève se présente pour un poste après l’école. Chapitre 6 envisage la relation et le complément réciproque du cours magistral en histoire et le travail en projets avec des sujets historiques en donnant des exemples réalisés à l’Oberstufen-Kolleg. Chapitre 7 s’occupe d’un élément de base pour le développement du travail en projets: la question de l’organisation. Elle nécessite un groupe organisateur parmi les collègues qui est responsable du point de vue didactique et structural. Il conseille et régularise dans un «hearing» les projets annoncés, les prépare pour le vote par les élèves et organise une journée portes ouvertes à la fin de la phase des projets. Ainsi et avec d’autres éléments organisateurs il a été crée une «culture des projets» («Projektkultur»). Pour une étude empirique et comparative dans six écoles de la région – les résultats sont dans le chapitre – le groupe organisateur a développé une liste idéale de cette culture qui est en même temps un instrument pour le développement intérieur d’une école. Chapitre 8 expose des conceptions et expériences de l’implémentation du travail en projets dans les écoles normales par le groupe de l’Oberstufen-Kolleg qui a fait beaucoup de formation avec des professeurs depuis les années 1990. Une unité de formation exemplaire est décrit à la base des ces formations. Ainsi l’école expérimental a pu donner quelques impulsions pour le système scolaire en Allemagne. Chapitre 9 est un résumé des résultats de la dissertation. A la fin de la première partie de la dissertation se trouvent une liste des sources et des œuvres consultés. La deuxième partie comprend un appendice avec 22 articles déjà publiés. KW - Projektdidaktik KW - didactics of project-based-learning KW - Entwicklung des Projektunterrichts in der BRD KW - development of project-based-learning KW - Projektorganisation und –kultur KW - organisation and culture of project-based-learning KW - Leistungsbewertung von Projekten KW - judging of projects KW - Methodik der Projektarbeit KW - methods of project-based-learning KW - didactique des projets KW - organisation et culture des projets KW - évaluation des projets KW - developpement de l’enseignement des projets en Allemagne fédérale KW - méthodes des projets Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77199 ER - TY - THES A1 - Halbrügge, Lena T1 - Von der Curricularen Innovation zur Wissenschaftskommunikation T1 - From curriculum innovation to science communication BT - Explorative Entwicklung und Evaluation einer Wissenschaftskommunikationsstrategie für naturwissenschaftliche Forschungsverbünde BT - exploratory development and evaluation of a strategy for science communication in scientific research associations N2 - Im Rahmen einer explorativen Entwicklung wurde in der vorliegenden Studie ein Konzept zur Wissenschaftskommunikation für ein Graduiertenkolleg, in dem an photochemischen Prozessen geforscht wird, erstellt und anschließend evaluiert. Der Grund dafür ist die immer stärker wachsende Forderung nach Wissenschaftskommunikation seitens der Politik. Es wird darüber hinaus gefordert, dass die Kommunikation der eigenen Forschung in Zukunft integrativer Bestandteil des wissenschaftlichen Arbeitens wird. Um junge Wissenschaftler bereits frühzeitig auf diese Aufgabe vorzubereiten, wird Wissenschaftskommunikation auch in Forschungsverbünden realisiert. Aus diesem Grund wurde in einer Vorstudie untersucht, welche Anforderungen an ein Konzept zur Wissenschaftskommunikation im Rahmen eines Forschungsverbundes gestellt werden, indem die Einstellung der Doktoranden zur Wissenschaftskommunikation sowie ihre Kommunikationsfähigkeiten anhand eines geschlossenen Fragebogens evaluiert wurden. Darüber hinaus wurden aus den Daten Wissenschaftskommunikationstypen abgeleitet. Auf Grundlage der Ergebnisse wurden unterschiedliche Wissenschaftskommunikationsmaßnahmen entwickelt, die sich in der Konzeption, den Rezipienten, sowie der Form der Kommunikation und den Inhalten unterscheiden. Im Rahmen dieser Entwicklung wurde eine Lerneinheit mit Bezug auf die Inhalte des Graduiertenkollegs, bestehend aus einem Lehr-Lern-Experiment und den dazugehörigen Begleitmaterialien, konzipiert. Anschließend wurde die Lerneinheit in eine der Wissenschaftskommunikationsmaßnahmen integriert. Je nach Anforderung an die Doktoranden, wurden die Maßnahmen durch vorbereitende Workshops ergänzt. Durch einen halboffenen Pre-Post-Fragebogen wurde der Einfluss der Wissenschaftskommunikationsmaßnahmen und der dazugehörigen Workshops auf die Selbstwirksamkeit der Doktoranden evaluiert, um Rückschlüsse darauf zu ziehen, wie sich die Wahrnehmung der eigenen Kommunikationsfähigkeiten durch die Interventionen verändert. Die Ergebnisse deuten darauf hin, dass die einzelnen Wissenschaftskommunikationsmaßnahmen die verschiedenen Typen in unterschiedlicher Weise beeinflussen. Es ist anzunehmen, dass es abhängig von der eigenen Einschätzung der Kommunikationsfähigkeit unterschiedliche Bedürfnisse der Förderung gibt, die durch dedizierte Wissenschaftskommunikationsmaßnahmen berücksichtigt werden können. Auf dieser Grundlage werden erste Ansätze für eine allgemeingültige Strategie vorgeschlagen, die die individuellen Fähigkeiten zur Wissenschaftskommunikation in einem naturwissenschaftlichen Forschungsverbund fördert. N2 - As part of an exploratory research approach a concept for science communication was developed and evaluated for a research training group that focuses on photochemical processes. The increasing demand for science communication by politics justifies this approach. Furthermore, for future scientists the communication of their own research is demanded to be an integrative part of good scientific practice. To prepare young researchers for the upcoming task at an early stage, science communication is also required in research associations. Hence, a preliminary study was conducted to first investigate the requirements of a science communication concept by evaluating doctoral students’ attitudes towards science communication and their communication skills using a questionnaire comprising closed questions. Moreover, science communication types where derived from the data. Based on these results multiple science communication measures that differ in the conception, the recipients, the form of the communication and their content were developed. With reference to the content of the graduate program an experiment and the accompanying material for teaching was designed. It can be used in schools and extracurricular learning settings. Subsequently, the teaching unit was implemented into one measure. Depending on the requirements of each science communication measure for the doctoral students the measures were complemented by preparatory workshops. Through a semi-open pre-post questionnaire, the impact of the science communication measures and the associated workshops on the doctoral students’ self-efficacy was evaluated. Also, conclusions about how the perception of their own communication skills changed as a result of the intervention could be drawn. The results suggest that the individual science communication measures affect the different types in various ways. It is likely that depending on one’s assessment of communication skills, there are different funding needs that can be addressed through dedicated measures. In this way, a generally applicable strategy which promotes individual science communication skills in a scientific research association will be proposed. KW - Wissenschaftskommunikation KW - Curriculare Innovation KW - Chemie KW - Elektrolumineszenz KW - Lerneinheit KW - Elektrolumineszenz-Folie KW - Wissenschaftskommunikationstypen KW - chemistry KW - curriculum innovation KW - electroluminescence KW - electroluminescent foil KW - learning unit KW - science communication KW - science communication types Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-620357 ER - TY - THES A1 - Wiesener, Barbara T1 - Von der bleichen Prinzessin, die ein purpurrotes Pferd über den Himmel entführte : das Utopische im Werk Brigitte Reimanns N2 - Nach einem Rekurs über den Utopiebegriff wurden sowohl im diarischen Werk als auch in der veröffentlichten Prosa Brigitte Reimanns utopische Konzeptionen aufgespürt. Gesucht wurde das Utopische sowohl in den Beschreibungen einer konkreten Gesellschaftsutopie, als auch in den literarischen „Verfeinerungen“ einer kruden Ideologie, wie im kritischen Hinterfragen des „Noch-Nicht-Bewussten“ (Ernst Bloch). Als ästhetische Utopien wurden auch Wunschbilder des Alltags, Träume, Märchen und Mythen gedeutet. Ausführliche Untersuchungen beschäftigten sich mit der Gestaltung der weiblichen Figuren und ihrer Entwicklung von der ideologisch (auch männlich) indoktrinierten Protagonistin zur „freien“ Ich–Gestalterin. Nachgewiesen wurde sowohl im diarischen Werk, als auch in der veröffentlichten Prosa eine Wandlung des Utopieverständnisses von der Gesellschaftsutopie zur subjektiven „Augenblicksutopie“, die im Deutungshorizont der Literatur der Romantik auch als DDR-spezifische Innerlichkeit verstanden werden könnte, welche mit ihrem Rückzug ins Individuelle die ritualisierte DDR-Öffentlichkeit desavouierte. N2 - After a study of the term of Utopia, Utopian concepts were discovered both in the diary texts and in the published prose of Brigitte Reimann′s oeuvre. The Utopian was searched in the descriptions of concrete social Utopia as well as in the literary Verfeinerungen of crude ideology and in the critical research of the Noch-Nicht-Bewusste (Ernst Bloch). Wishful thinking, dreams, fairy-tales and myths were interpreted as an aesthetic Utopia. Detailed researches were engaged in a study of representation of feminine characters and their development from the ideological indoctrinated protagonist to the “free” Ich-Gestalterin. The change in understanding of Utopia from the social Utopia to the Augenblicksutopie could be proved both in the diary texts and in the published prose of Brigitte Reimann. In the Deutungshorizont of Romantic literature it may be understood as a specific DDR-Innerlichkeit, which with its retreat into individualism showed up the ritual public. KW - Brigitte Reimann KW - Prosa KW - diarisches Werk KW - Franziska Linkerhand KW - Utopiebegriff KW - Augenblicksutopie KW - Romantikrezeption KW - Brigitte Reimann KW - prose KW - diary literature KW - Franziska Linkerhand KW - Utopia KW - Augenblicksutopie KW - reception of Romatic literature Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001442 ER - TY - THES A1 - Riemer, Martin T1 - Vom Phenol zum Naturstoff : Entwicklung nachhaltiger Mikrowellen-vermittelter SUZUKI-MIYAURA-Kupplungen und Tandem-Reaktionen T1 - From phenol to natural products : development of sustainable microwave-mediated Suzuki-Miyaura couplings and tandem reactions N2 - Ziel dieser Arbeit war die Entwicklung von Methoden zur Synthese von auf Phenol basierenden Naturstoffen. Insbesondere wurde bei der Methodenentwicklung die Nachhaltigkeit in den Vordergrund gerückt. Dies bedeutet, dass durch die Zusammenfassung mehrerer Syntheseschritte zu einem (Tandem-Reaktion) beispielsweise unnötige Reaktionsschritte vermieden werden sollten. Ferner sollten im Sinne der Nachhaltigkeit möglichst ungiftige Reagenzien und Lösungmittel verwendet werden, ebenso wie mehrfach wiederverwertbare Katalysatoren zum Einsatz kommen. Im Rahmen dieser Arbeit wurden Methoden zum Aufbau von Biphenolen mittels Pd/C-katalysierten Suzuki-Miyaura-Kupplungen entwickelt. Diese Methoden sind insofern äußerst effizient, da der ansonsten gebräuchliche Syntheseweg über drei Reaktionsschritte somit auf lediglich eine Reaktionsstufe reduziert wurde. Weiterhin wurden die Reaktionsbedingungen so gestaltet, dass einfaches Wasser als vollkommen ungiftiges Lösungsmittel verwendet werden konnte. Des Weiteren wurde für diese Reaktionen ein Katalysator gewählt, der einfach durch Filtration vom Reaktionsgemisch abgetrennt und für weitere Reaktionen mehrfach wiederverwendet werden konnte. Darüber hinaus konnte durch die Synthese von mehr als 100 Verbindungen die breite Anwendbarkeit der Methoden aufgezeigt werden. Mit den entwickelten Methoden konnten 14 Naturstoffe - z. T. erstmals - synthetisiert werden. Derartige Stoffe werden u. a. von den ökonomisch bedeutenden Kernobstgewächsen (Äpfeln, Birnen) als Abwehrmittel gegenüber Schädlingen erzeugt. Folglich konnte mit Hilfe dieser Methoden ein Syntheseweg für potentielle Pflanzenschutzmittel entwickelt werden. Im zweiten Teil dieser Arbeit wurde ein Zugang zu den sich ebenfalls vom Phenol ableitenden Chromanonen, Chromonen und Cumarinen untersucht. Bei diesen Untersuchungen konnte durch die Entwicklung zweier neuer Tandem-Reaktionen ein nachhaltiger und stufenökonomischer Syntheseweg zur Darstellung substituierter Benzo(dihydro)pyrone aufgezeigt werden. Durch die erstmalige Kombination der Claisen-Umlagerung mit einer Oxa-Michael-Addition bzw. konjugierten-Addition wurden zwei vollkommen atomökonomische Reaktionen miteinander verknüpft und somit eine überaus effiente Synthese von allyl- bzw. prenylsubstituierten Chromanonen und Chromonen ermöglicht. Ferner konnten durch die Anwendung einer Claisen-Umlagerung-Wittig-Laktonisierungs-Reaktion allyl- bzw. prenylsubstituierte Cumarine erhalten werden. Herausragendes Merkmal dieser Methoden war, dass in nur einem Schritt der jeweilige Naturstoffgrundkörper aufgebaut und eine lipophile Seitenkette generiert werden konnte. Die Entwicklung dieser Methoden ist von hohem pharmazeutischem Stellenwert, da auf diesen Wegen Verbindungen synthetisiert werden können, die zum einem über das notwendige pharmakologische Grundgerüst verfügen und zum anderen über eine Seitenkette, welche die Aufnahmefähigkeit und damit die Wirksamkeit im Organismus beträchtlich erhöht. Insgesamt konnten mittels der entwickelten Methoden 15 Chromanon-, Chromon- und Cumarin-Naturstoffe z. T. erstmals synthetisiert werden. N2 - The aim of this work was the development of methods for the synthesis of natural products based on phenol. In particular, in developing methods, sustainability has been brought to the fore. This means that, for example, unnecessary reaction steps should be avoided by the combination of several synthetic steps to a (tandem reaction). Furthermore, non-toxic as possible in terms of sustainability reagents and solvents should be used, as well as multiple reusable catalysts are used. In this work, methods have been developed for the synthesis of bisphenols using Pd / C-catalyzed Suzuki-Miyaura coupling reactions. These methods are so far äuÿerst e? Cient, since the otherwise common synthetic route was thus reduced to merely a reaction stage, three reaction steps. Furthermore, the reaction conditions were designed to plain water could be used as a completely non-toxic solvent. It was also elected a catalyst for these reactions, which could be easily separated by filtration from the reaction mixture and reused several times for further reactions. In addition, it could be demonstrated through the synthesis of more than 100 compounds, the broad applicability of the methods. ., For the first time T. - - Using the methods developed 14 natural compounds could be synthesized. Such substances are among others generated by the economically important pome fruit crops (apples, pears) as a defense against pests. Consequently, it could be developed using these methods, a synthetic route for potential plant protection products. In the second part of this work, access to the likewise derived from phenol chromanones, chromones and coumarins was investigated. In these studies, a sustainable and economical route in stages to represent substituted benzo (dihydro) pyrones could be demonstrated by the development of two new tandem reactions. The initial combination of the Claisen rearrangement with an oxa-Michael addition or conjugated addition of two perfectly atom-economical reactions were interlinked and thus allows a very effiente synthesis of allyl or prenylsubstituierten chromanones and chromones. Furthermore or prenylsubstituierte coumarins could be obtained by the application of a Claisen rearrangement Wittig lactonization reaction allyl. The outstanding feature of these methods was that built up in only one step of the respective natural product base and a lipophilic side chain could be generated. The development of these methods is of great pharmaceutical importance, since these paths compounds can be synthesized on a the necessary pharmacological Backbone and on the other hand have a side chain, which increases the absorption and thus the effectiveness in the body considerably. Overall, z. T. were synthesized using the methods developed Chromanon- 15, chromone and coumarin-natural products for the first time. KW - Phenol KW - Biphenol KW - Cumarin KW - Chromon KW - Chromanon KW - phenol KW - biphenol KW - coumarine KW - chromone KW - chromanone Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72525 ER - TY - THES A1 - Schulte-Osseili, Christine T1 - Vom Monomer zum Glykopolymer T1 - From monomer to glycopolymer BT - Anwendung als Biofunktionalitäten auf Oberflächen und als Transportmoleküle BT - application as biofunctionalized surfaces and transport molecules N2 - Glykopolymere sind synthetische und natürlich vorkommende Polymere, die eine Glykaneinheit in der Seitenkette des Polymers tragen. Glykane sind durch die Glykan-Protein-Wechselwirkung verantwortlich für viele biologische Prozesse. Die Beteiligung der Glykanen in diesen biologischen Prozessen ermöglicht das Imitieren und Analysieren der Wechselwirkungen durch geeignete Modellverbindungen, z.B. der Glykopolymere. Dieses System der Glykan-Protein-Wechselwirkung soll durch die Glykopolymere untersucht und studiert werden, um die spezifische und selektive Bindung der Proteine an die Glykopolymere nachzuweisen. Die Proteine, die in der Lage sind, Kohlenhydratstrukturen selektiv zu binden, werden Lektine genannt. In dieser Dissertationsarbeit wurden verschiedene Glykopolymere synthetisiert. Dabei sollte auf einen effizienten und kostengünstigen Syntheseweg geachtet werden. Verschiedene Glykopolymere wurden durch funktionalisierte Monomere mit verschiedenen Zuckern, wie z.B. Mannose, Laktose, Galaktose oder N-Acetyl-Glukosamin als funktionelle Gruppe, hergestellt. Aus diesen funktionalisierten Glykomonomeren wurden über ATRP und RAFT-Polymerisation Glykopolymere synthetisiert. Die erhaltenen Glykopolymere wurden in Diblockcopolymeren als hydrophiler Block angewendet und die Selbstassemblierung in wässriger Lösung untersucht. Die Polymere formten in wässriger Lösung Mizellen, bei denen der Zuckerblock an der Oberfläche der Mizellen sitzt. Die Mizellen wurden mit einem hydrophoben Fluoreszenzfarbstoff beladen, wodurch die CMC der Mizellenbildung bestimmt werden konnte. Außerdem wurden die Glykopolymere als Oberflächenbeschichtung über „Grafting from“ mit SI-ATRP oder über „Grafting to“ auf verschiedene Oberflächen gebunden. Durch die glykopolymerbschichteten Oberflächen konnte die Glykan Protein Wechselwirkung über spektroskopische Messmethoden, wie SPR- und Mikroring Resonatoren untersucht werden. Hierbei wurde die spezifische und selektive Bindung der Lektine an die Glykopolymere nachgewiesen und die Bindungsstärke untersucht. Die synthetisierten Glykopolymere könnten durch Austausch der Glykaneinheit für andere Lektine adressierbar werden und damit ein weites Feld an anderen Proteinen erschließen. Die bioverträglichen Glykopolymere wären alternativen für den Einsatz in biologischen Prozessen als Transporter von Medikamenten oder Farbstoffe in den Körper. Außerdem könnten die funktionalisierten Oberflächen in der Diagnostik zum Erkennen von Lektinen eingesetzt werden. Die Glykane, die keine selektive und spezifische Bindung zu Proteinen eingehen, könnten als antiadsorptive Oberflächenbeschichtung z.B. in der Zellbiologie eingesetzt werden. N2 - Glycopolymers are synthetic and naturally occurring polymers that carry a gylcan unit in the side chain of the polymer. Glycans are responsible for many biological processes due to the glycn-protein interaction. The involvement of glcans in these biological processes enables the imitation and analysis of interactions by suitable model coumponds, e.g. glycopolymers. This system of glycan-protein interaction will be investigated and studied by glycopolymers in order to demonstrate the specific and selective binding of proteins to glycopolymers. The proteins that are able to selectively bind carbohydrate structures are called lectins. In this dissertation different glycopolymers were synthesized. Care should be taken to ensure an effficient and cost-effective synthesis route. Different glycopolymers were produced by functionalized monomers with different sugars, such as mannose, lactose, galactose or N-acetyl-glucosamine as functional group. From these functionalized glycomonomers, glycopolymers were synthesized via ATRP and RAFT polymerization. The glycopolymers obtained were used as hydrophilic blocks in diblock copolymers and self-assembly in aqueous solution was investigated. In aqueoussolution, the polymers formed micelles in which the sugar block sits on the surface of the micelles. The micelles were loaded with a hydrophobic fluorescent dxe, which made it possible to determine the CMC of micelle formation. In additiom, the glycopolymers were bound to various surfaces as surface coatings via “grafting from” with SI-ATRP or via “grafting to”. Through the glycopolymer-coated surfaces, the glycan-protein interaction could be investigated by spectroscpic measurement methods such as SPR and microring resonators. The specific and selective binding of lectins to the glycopolymers was detected and the binding strength was investigated. The synthesised glycopolymers could become adressable for other lectins by exchanging the glycan unit and thus open up a broad field of other proteins. The biocompatible glycopolymers would be an alternative for use in iological processes as transporters of drugs or dyes into the body. In addtion, the functionalised surfaces could be used in diagnostics for regognition of lectins. The glycan, which do nit bind selectively and specifically to proetins, could be used as anit-adsoptive surface coatings, e.g. in cell biology. KW - Glykopolymere KW - Polymerisation KW - Oberflächenbeschichtung KW - Lektine KW - Glykan-Protein-Wechselwirkung KW - glycopolymers KW - polymerization KW - surface modification KW - lectins KW - glycan-protein interaction Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432169 ER - TY - THES A1 - Kluth, Dirk T1 - Vom Antioxidanz zum Genregulator : transkriptionelle Regulation von Phase I- und Phase II-Enzymen durch Vitamin E und antioxidative sekundäre Pflanzeninhaltsstoffe T1 - From antioxidant to gene regulator : transcriptional regulation of phase I- and phase II-enzymes by vitamin E and antioxidative secondary plant compounds N2 - Nahrungsinhaltsstoffe sind im Organismus an Steuerungsprozessen und Stoffwechselvorgängen beteiligt, wobei die Mechanismen ihrer Wirkung noch nicht völlig aufgeklärt sind. Wie Vitamin E zeigen auch sekundäre Pflanzeninhaltsstoffe in Zellsystemen sowie in vivo eine Reihe biologischer Wirkungen, deren Erklärung jedoch häufig auf ihre antioxidative Eigenschaft reduziert wird. Ziel der Dissertation war es, den Einfluss von Vitamin E und anderen Pflanzeninhaltsstoffen (in Form von Pflanzenextrakten oder isolierten sekundären Pflanzeninhaltsstoffen, z.B. Polyphenole), die bisher alle hauptsächlich als Antioxidanz klassifiziert wurden, auf die transkriptionelle Regulation von Phase I- und Phase II-Enzymen zu untersuchen. Dazu wurde die Aktivierung des PXR (pregnane X receptor) und des Nrf2 (NF-E2-related factor-2) als zentrale Transkriptionsfaktoren der Phase I- bzw. Phase II-Enzyme getestet. Der Einfluss von verschiedenen Vitamin E-Formen und antioxidativen Pflanzeninhaltsstoffen in Form von Reinsubstanzen (Curcumin, EGCG, Medox, Quercetin, Resveratrol und Sulforaphan) oder Pflanzenextrakten (aus Blaubeeren, Gewürznelken, Himbeeren, Nelkenpfeffer, Thymian oder Walnüssen) auf die Aktivierung von PXR und Nrf2 sowie des Promotors eines jeweiligen Zielgens (CYP3A4 bzw. GI-GPx) wurde in vitro mit Reportergenplasmiden untersucht. Es zeigte sich, dass sowohl Vitamin E-Formen als auch verschiedene sekundäre Pflanzeninhaltsstoffe PXR und/oder Nrf2 sowie die Promotoren der jeweiligen Zielgene CYP3A4 bzw. GI-GPx aktivieren. In einem Tierexperiment konnte diese genregulatorische Wirkung von Vitamin E auf die in vivo-Situation übertragen werden. In Lebern von Mäusen, deren Futter unterschiedliche Mengen von Vitamin E enthielt (Mangel-, Normal- und Überflussdiät), wurde eine direkte Korrelation zwischen der alpha-Tocopherol-Konzentration und der Cyp3a11 mRNA-Expression nachgewiesen (Cyp3a11 ist das murine Homolog zum humanen CYP3A4). Entgegen der in vitro-Situation hatte gamma-Tocotrienol in vivo einen nur kaum nachweisbaren Effekt auf die Expression der Cyp3a11 mRNA, induzierte aber die Expression der alpha-TTP mRNA. Es konnte gezeigt werden, dass Vitamin E und sekundäre Pflanzeninhaltsstoffe Phase I- und Phase II-Enzyme transkriptionell regulieren können. Die Wirkungen des Vitamin E können sich allerdings nur entfalten, wenn die Vitamin E-Formen ausreichend vom Körper aufgenommen werden. Gegenstand der Dissertation waren daher auch Untersuchungen zur Bioverfügbarkeit (zelluläre Akkumulation und Metabolismus) verschiedener Vitamin E-Formen. Es konnte gezeigt werden, dass Unterschiede in der chemischen Struktur der Vitamin E-Formen deren zelluläre Akkumulation und Metabolisierung beeinflussen. Unter Berücksichtigung der Ergebnisse der Dissertation lassen sich protektive Wirkungen von antioxidativen Nahrungsinhaltsstoffen auch unabhängig von ihren antioxidativen Eigenschaften über die Induktion zelleigener Schutzsysteme, einschließlich der Phase I- und Phase II-Enzyme, erklären. Die Induktion der zelleigenen Abwehr lässt sich auch als adaptive Antwort (sog. "adaptive response") des Organismus gegenüber zellschädigenden Ereignissen betrachten. N2 - In the organism food compounds are involved in regulatory and metabolic processes although the mechanisms of their effects have not been completely elucidated yet. Like vitamin E, secondary plant compounds have diverse biological effects, both in cell systems as well as in vivo. However, the explanation thereof is often reduced to their antioxidative capacity. The aim of this thesis was to investigate the influence of vitamin E and other plant compounds (in form of plant extracts or isolated secondary plant compounds, e.g. polyphenols), which were up to now classified primarily as antioxidants, on the transcription of phase I- and phase II-enzymes. For this, the activation of central transcription factors of the phase I- or phase II enzymes, PXR (pregnane X receptor) and Nrf2 (NF-E2-related factor-2), was tested. The influence of different vitamin E forms and antioxidative plant compounds in form of pure substances (curcumin, EGCG, Medox, quercetin, resveratrol, and sulforaphane) or plant extracts (from blueberries, clove, raspberries, allspice, thyme, or walnuts) on the activation of PXR and Nrf2 as well as on the promoter of a respective target gene (CYP3A4 or GI-GPx) was investigated in vitro by reporter gene assays. It appeared that vitamin E forms as well as different secondary plant compounds activate PXR and/or Nrf2 as well as the promoter of the respective target genes CYP3A4 and GI-GPx. The effects of vitamin E were confirmed in vivo by an animal experiment. In livers of mice whose diet contained different amounts of vitamin E (deficient, adequate and supra-nutritional), a direct correlation between alpha-tocopherol content and Cyp3a11 mRNA expression was shown (Cyp3a11 is the murine homolog to the human CYP3A4). In contrast to the in vitro observations, gamma-tocotrienol in vivo only had a small effect on the expression of Cyp3a11 mRNA. However, it induced the expression of alpha-TTP on mRNA level. It could be shown that vitamin E and secondary plant compounds can influence the transcriptional regulation of phase I- and/or phase II-enzymes. However, these effects of vitamin E can only be seen if the vitamin E forms are taken up by the body sufficiently. Therefore, another aim of the thesis was to investigate the bioavailability of different vitamin E forms (i.e., cellular accumulation and metabolism). It could be shown that differences in the chemical structure of vitamin E forms influence their cellular accumulation and metabolism. Regarding the results of this thesis, protective effects of antioxidative food compounds can be explained independent of their antioxidative properties by the induction of cellular protective systems, including phase I- and phase II-enzymes. The induction of cellular defence mechanism can also be considered as an adaptive response of the organism towards cell-damaging events. KW - Vitamin E KW - Polyphenole KW - Genregulation KW - Biotransformation KW - Kernrezeptor KW - PXR KW - Nrf2 KW - CYP3A4 KW - Cyp3a11 KW - GI-GPx KW - PXR KW - Nrf2 KW - CYP3A4 KW - Cyp3a11 KW - GI-GPx Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10060 ER - TY - THES A1 - Ruch, Joël T1 - Volcano deformation analysis in the Lazufre area (central Andes) using geodetic and geological observations T1 - Vulkan Deformationsanalyse im Bereich Lazufre (Zentral-Anden) mit geodätischen und geologischen Beobachtungen N2 - Large-scale volcanic deformation recently detected by radar interferometry (InSAR) provides new information and thus new scientific challenges for understanding volcano-tectonic activity and magmatic systems. The destabilization of such a system at depth noticeably affects the surrounding environment through magma injection, ground displacement and volcanic eruptions. To determine the spatiotemporal evolution of the Lazufre volcanic area located in the central Andes, we combined short-term ground displacement acquired by InSAR with long-term geological observations. Ground displacement was first detected using InSAR in 1997. By 2008, this displacement affected 1800 km2 of the surface, an area comparable in size to the deformation observed at caldera systems. The original displacement was followed in 2000 by a second, small-scale, neighbouring deformation located on the Lastarria volcano. We performed a detailed analysis of the volcanic structures at Lazufre and found relationships with the volcano deformations observed with InSAR. We infer that these observations are both likely to be the surface expression of a long-lived magmatic system evolving at depth. It is not yet clear whether Lazufre may trigger larger unrest or volcanic eruptions; however, the second deformation detected at Lastarria and the clear increase of the large-scale deformation rate make this an area of particular interest for closer continuous monitoring. N2 - Vulkanische Deformationen in großem Maßstab, die mittels InSAR gemessen wurden, liefern neue Informationen und dadurch einen neuen Blickwinkel auf vulkan-tektonische Aktivitäten und das Verständnis von langlebigen, magmatischen Systemen. Die Destabilisierung eines solchen Systems in der Tiefe beeinflusst dauerhaft die Oberfläche durch Versatz des Bodens, magmatische Einflüsse und vulkanische Unruhen. Mit der Kombination aus kleinräumigem Bodenversatz gemessen mittels InSAR, numerischer Modellierung und langfristigen geologischen Beobachtungen, analysieren wir die Gegend um den Vulkan Lazufre in den Zentralanden, um die raumzeitliche Entwicklung der Region zu bestimmen. Bodenversatz wurde hierbei im Jahr 1997 mittels Radar-Interferrometrie (InSAR) gemessen, was eine Fläche von 1800 km² ausmacht, vergleichbar mit der Größe der Deformation des Kraters. Im Jahr 2000 wurde zusätzlich eine kleinräumige Deformation am Nachbarvulkan Lastarria entdeckt. Wir sehen räumliche als auch zeitliche Verbindungen zwischen der Deformation des Vulkans und vulkanischen Strukturen innerhalb der betroffenen Gegend. Wir folgern daraus, dass diese Beobachtungen der Ausdruck eines langlebigen, magmatischen Systems in der Tiefe an der Oberfläche sind. Es ist noch nicht klar, ob Lazufre größere vulkanische Unruhen, wie zum Beispiel Eruptionen auslösen könnte, aber die Deformation am Vulkan Lastarria und ein Anstieg der großräumigen Deformationsrate, machen diese Region interessant für eine zukünftige, kontinuierliche Überwachung. KW - Vulkan Verformung KW - InSAR KW - zentralen Anden KW - Spannungsfeld KW - volcano deformation KW - InSAR KW - central Andes KW - stress field Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47361 ER - TY - THES A1 - Zali, Zahra T1 - Volcanic tremor analysis based on advanced signal processing concepts including music information retrieval (MIR) strategies N2 - Volcanoes are one of the Earth’s most dynamic zones and responsible for many changes in our planet. Volcano seismology aims to provide an understanding of the physical processes in volcanic systems and anticipate the style and timing of eruptions by analyzing the seismic records. Volcanic tremor signals are usually observed in the seismic records before or during volcanic eruptions. Their analysis contributes to evaluate the evolving volcanic activity and potentially predict eruptions. Years of continuous seismic monitoring now provide useful information for operational eruption forecasting. The continuously growing amount of seismic recordings, however, poses a challenge for analysis, information extraction, and interpretation, to support timely decision making during volcanic crises. Furthermore, the complexity of eruption processes and precursory activities makes the analysis challenging. A challenge in studying seismic signals of volcanic origin is the coexistence of transient signal swarms and long-lasting volcanic tremor signals. Separating transient events from volcanic tremors can, therefore, contribute to improving our understanding of the underlying physical processes. Some similar issues (data reduction, source separation, extraction, and classification) are addressed in the context of music information retrieval (MIR). The signal characteristics of acoustic and seismic recordings comprise a number of similarities. This thesis is going beyond classical signal analysis techniques usually employed in seismology by exploiting similarities of seismic and acoustic signals and building the information retrieval strategy on the expertise developed in the field of MIR. First, inspired by the idea of harmonic–percussive separation (HPS) in musical signal processing, I have developed a method to extract harmonic volcanic tremor signals and to detect transient events from seismic recordings. This provides a clean tremor signal suitable for tremor investigation along with a characteristic function suitable for earthquake detection. Second, using HPS algorithms, I have developed a noise reduction technique for seismic signals. This method is especially useful for denoising ocean bottom seismometers, which are highly contaminated by noise. The advantage of this method compared to other denoising techniques is that it doesn’t introduce distortion to the broadband earthquake waveforms, which makes it reliable for different applications in passive seismological analysis. Third, to address the challenge of extracting information from high-dimensional data and investigating the complex eruptive phases, I have developed an advanced machine learning model that results in a comprehensive signal processing scheme for volcanic tremors. Using this method seismic signatures of major eruptive phases can be automatically detected. This helps to provide a chronology of the volcanic system. Also, this model is capable to detect weak precursory volcanic tremors prior to the eruption, which could be used as an indicator of imminent eruptive activity. The extracted patterns of seismicity and their temporal variations finally provide an explanation for the transition mechanism between eruptive phases. N2 - Vulkane gehören zu den dynamischsten Zonen der Erde und sind für viele Veränderungen auf unserem Planeten verantwortlich. Die Vulkanseismologie zielt darauf ab, physikalischen Prozesse in Vulkansystemen besser zu verstehen und die Art und den Zeitpunkt von Eruptionen durch die Analyse der seismischen Aufzeichnungen vorherzusagen. Die Signale vulkanischer Tremore werden normalerweise vor oder während Vulkanausbrüchen beobachtet und müssen überwacht werden, um die vulkanische Aktivität zu bewerten. Die Untersuchung vulkanischer Tremore ist ein wichtiger Teil der Vulkanüberwachung, die darauf abzielt, Anzeichen für das Erwachen oder Wiedererwachen von Vulkanen zu erkennen und möglicherweise Ausbrüche vorherzusagen. Mehrere Dekaden kontinuierlicher seismischer Überwachung liefern nützliche Informationen für die operative Eruptionsvorhersage. Die ständig wachsende Menge an seismischen Aufzeichnungen stellt jedoch eine Herausforderung für die Analyse, Informationsextraktion und Interpretation für die zeitnahe Entscheidungsfindung während Vulkankrisen dar. Darüber hinaus erschweren die Komplexität der Eruptionsprozesse und Vorläuferaktivitäten die Analyse. Eine Herausforderung bei der Untersuchung seismischer Signale vulkanischen Ursprungs ist die Koexistenz von transienten Signalschwärmen und lang anhaltenden vulkanischen Tremoren. Die Trennung dieser beiden Signaltypen kann daher dazu beitragen, unser Verständnis der zugrunde liegenden physikalischen Prozesse zu verbessern. Einige ähnliche Probleme (Datenreduktion, Quellentrennung, Extraktion und Klassifizierung) werden im Zusammenhang mit Music Information Retrieval (MIR, dt. Etwa Musik-Informationsabruf) behandelt. Die Signaleigenschaften von akustischen und seismischen Aufzeichnungen weisen eine Reihe von Gemeinsamkeiten auf. Ich gehe über die klassischen Signalanalysetechniken hinaus, die normalerweise in der Seismologie verwendet werden, indem ich die Ähnlichkeiten von seismischen und akustischen Signalen und das Fachwissen aus dem Gebiet der MIR zur Informationsgewinnung nutze. Inspiriert von der Idee der harmonisch-perkussiven Trennung (HPS) in der musikalischen Signalverarbeitung habe ich eine Methode entwickelt, mit der harmonische vulkanische Erschütterungssignale extrahiert und transiente Ereignisse aus seismischen Aufzeichnungen erkannt werden können. Dies liefert ein sauberes Tremorsignal für die Tremoruntersuchung, sowie eine charakteristischen Funktion, die für die Erdbebenerkennung geeignet ist. Weiterhin habe ich unter Verwendung von HPS-Algorithmen eine Rauschunterdrückungstechnik für seismische Signale entwickelt. Diese kann zum Beispiel verwendet werden, um klarere Signale an Meeresbodenseismometern zu erhalten, die sonst durch zu starkes Rauschen überdeckt sind. Der Vorteil dieser Methode im Vergleich zu anderen Denoising-Techniken besteht darin, dass sie keine Verzerrung in der Breitbandantwort der Erdbebenwellen einführt, was sie für verschiedene Anwendungen in der passiven seismologischen Analyse zuverlässiger macht. Um Informationen aus hochdimensionalen Daten zu extrahieren und komplexe Eruptionsphasen zu untersuchen, habe ich ein fortschrittliches maschinelles Lernmodell entwickelt, aus dem ein umfassendes Signalverarbeitungsschema für vulkanische Erschütterungen abgeleitet werden kann. Mit dieser Methode können automatisch seismische Signaturen größerer Eruptionsphasen identifizieren werden. Dies ist nützlich, um die Chronologie eines Vulkansystems zu verstehen. Außerdem ist dieses Modell in der Lage, schwache vulkanische Vorläuferbeben zu erkennen, die als Indikator für bevorstehende Eruptionsaktivität verwendet werden könnten. Basierend auf den extrahierten Seismizitätsmustern und ihren zeitlichen Variationen liefere ich eine Erklärung für den Übergangsmechanismus zwischen verschiedenen Eruptionsphasen. KW - seismic signal processing KW - machine learning KW - volcano seismology KW - music information retrieval KW - noise reduction Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610866 ER - TY - THES A1 - Nell, Sandra T1 - Vitamin E und der vesikuläre Transport : Untersuchungen zu den genregulatorischen Funktionen von Vitamin E mittels Microarray- und real time PCR-Analysen in der Maus und funktionellen in vitro Assays in RBL-2H3 Zellen T1 - Vitamin E and the vesicular transport : examination of the generegulatory functions of vitamin E using microarrays and real time PCR analyses in the mouse and functional in vitro assays in RBL-2H3 cells N2 - Vitamin E wird immer noch als das wichtigste lipophile Antioxidanz in biologischen Membranen betrachtet. In den letzten Jahren hat sich jedoch der Schwerpunkt der Vitamin E-Forschung hin zu den nicht-antioxidativen Funktionen verlagert. Besonderes Interesse gilt dabei dem α-Tocopherol, der häufigsten Vitamin E-Form im Gewebe von Säugetieren, und seiner Rolle bei der Regulation der Genexpression. Das Ziel dieser Dissertation war die Untersuchung der genregulatorischen Funktionen von α-Tocoperol und die Identifizierung α-Tocopherol-sensitiver Gene in vivo. Zu diesem Zweck wurden Mäuse mit verschiedenen Mengen α-Tocopherol gefüttert. Die Analyse der hepatischen Genexpression mit Hilfe von DNA-Microarrays identifizierte 387 α-Tocopherol-sensitive Gene. Funktionelle Clusteranalysen der differentiell exprimierten Gene zeigten einen Einfluss von α-Tocooherol auf zelluläre Transportprozesse. Besonders solche Gene, die an vesikulären Transportvorgängen beteiligt sind, wurden größtenteils durch α-Tocopherol hochreguliert. Für Syntaxin 1C, Vesicle-associated membrane protein 1, N-ethylmaleimide-sensitive factor and Syntaxin binding protein 1 konnte eine erhöhte Expression mittels real time PCR bestätigt werden. Ein funktioneller Einfluss von α-Tocopherol auf vesikuläre Transportprozesse konnte mit Hilfe des in vitro β-Hexosaminidase Assays in der sekretorischen Mastzelllinie RBL-2H3 gezeigt werden. Die Inkubation der Zellen mit α-Tocopherol resultierte in einer konzentrationsabhängigen Erhöhung der PMA/Ionomycin-stimulierten Sekretion der β-Hexosaminidase. Eine erhöhte Expression ausgewählter Gene, die an der Degranulation beteiligt sind, konnte nicht beobachtet werden. Damit schien ein direkter genregulatorischer Effekt von α-Tocopherol eher unwahrscheinlich. Da eine erhöhte Sekretion auch mit β-Tocopherol aber nicht mit Trolox, einem hydrophilen Vitamin E-Analogon, gefunden wurde, wurde vermutet, dass α-Tocopherol die Degranulation möglicherweise durch seine membranständige Lokalisation beeinflussen könnte. Die Inkubation der Zellen mit α-Tocopherol resultierte in einer veränderten Verteilung des Gangliosids GM1, einem Lipid raft Marker. Es wird angenommen, dass diese Membranmikrodomänen als Plattformen für Signaltransduktionsvorgänge fungieren. Ein möglicher Einfluss von Vitamin E auf die Rekrutierung/Translokation von Signalproteinen in Membranmikrodomänen könnte die beobachteten Effekte erklären. Eine Rolle von α-Tocopherol im vesikulären Transport könnte nicht nur seine eigene Absorption und seinen Transport beeinflussen, sondern auch eine Erklärung für die bei schwerer Vitamin E-Defizienz auftretenden neuronalen Dysfunktionen bieten. Im zweiten Teil der Arbeit wurde die α-Tocopheroltransferprotein (Ttpa) Knockout-Maus als genetisches Modell für Vitamin E-Defizienz verwendet, um den Effekt von Ttpa auf die Genexpression und die Gewebeverteilung von α-Tocopherol zu analysieren. Ttpa ist ein cytosolisches Protein, das für die selektive Retention von α-Tocopherol in der Leber verantwortlich ist. Die Ttpa-Defizienz resultierte in sehr geringen α-Tocopherol-Konzentrationen im Plasma und den extrahepatischen Geweben. Die Analyse der α-Tocopherol-Gehalte im Gehirn wies auf eine Rolle von Ttpa bei der α-Tocopherol-Aufnahme ins Gehirn hin. N2 - Vitamin E is still considered the most important lipid-soluble antioxidant within biological membranes. However, in the last years the non-antioxidant functions of vitamin E have become the focus of vitamin E research. From the eight members of the vitamin E family, specific emphasis is given to α-tocopherol, the most abundant vitamin E form in mammalian tissues, and its role in the regulation of gene expression. The aim of this thesis was the analysis of the gene regulatory functions of α-tocopherol and the identification of α-tocopherol sensitive genes in vivo. For this purpose mice were fed diets differing in α-tocopherol content. The analysis of hepatic gene expression using DNA microarrays identified 387 α-tocopherol-sensitive genes. Functional cluster analyses of these differentially expressed genes demonstrated an influence of α-tocopherol on cellular transport processes. Especially the expression of genes involved in vesicular trafficking was largely upregulated by α-tocopherol. Upregulation of syntaxin 1C, vesicle-associated membrane protein 1, N-ethylmaleimide-sensitive factor and syntaxin binding protein 1 was verified by real time PCR. A role of α-tocopherol in exocytosis was shown by the in vitro β-hexosaminidase release assay in the secretory mast cell line RBL-2H3. Incubation with α-tocopherol resulted in a concentration dependent increase of PMA/ionomycin-stimulated secretion of β-hexosaminidase. Induction of selected genes involved in degranulation was not observed at any time point. Thus, a direct gene-regulatory effect of α-tocopherol seemed rather unlikely. Since increased secretion was also observed with ß-tocopherol but not with trolox, a water-soluble analog of vitamin E, it was hypothesized that α-tocopherol might affect degranulation through its localization at the plasma membrane. Incubation of cells with α-tocopherol changed the distribution of the gangliosid GM1, a Lipid raft marker. These membrane microdomains are assumed to function as signaling platforms. An possible influence of vitamin E on the recruitment/translocation of signaling proteins into membrane microdomains could explain the observed effects. A role of α-tocopherol in the vesicular transport might not only affect its own absorption and transport but also explain the neural dysfunctions observed in severe α-tocopherol deficiency. In the second part of this dissertation the α-tocopherol transfer protein (Ttpa) knockout-mouse as a model of genetic vitamin E deficiency was used to analyze the effect of Ttpa gene expression and tissue distribution of α-tocopherol. Ttpa is a cytosolic protein, which is responsible for the selective retention of α-tocopherol in the liver. Its deficiency resulted in very low α-tocopherol concentrations in plasma and extrahepatic tissues. Analysis of α-tocopherol contents in brain indicated a role for Ttpa in the uptake of α-tocopherol into the brain. KW - Vitamin E KW - Microarray KW - Genregulation KW - vesikulärer Transport KW - α-Tocopheroltransferprotein (Ttpa) KW - vitamin E KW - microarray KW - gene regulation KW - vesicular transport KW - alpha-tocopherol transfer protein (Ttpa) Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-35710 ER - TY - THES A1 - Landes, Nico T1 - Vitamin E : elucidation of the mechanism of side chain degradation and gene regulatory functions T1 - Vitamin E : Untersuchungen zum Mechanismus des Seitenkettenabbaus und genregulatorische Funktionen N2 - For more than 80 years vitamin E has been in the focus of scientific research. Most of the progress concerning non-antioxidant functions, nevertheless, has only arisen from publications during the last decade. Most recently, the metabolic pathway of vitamin E has been almost completely elucidated. Vitamin E is metabolized by truncation of its side chain. The initial step of an omega-hydroxylation is carried out by cytochromes P450 (CYPs). This was evidenced by the inhibition of the metabolism of alpha-tocopherol by ketoconozole, an inhibitor of CYP3A expression, whereas rifampicin, an inducer of CYP3A expression increased the metabolism of alpha-tocopherol. Although the degradation pathway is identical for all tocopherols and tocotrienols, there is a marked difference in the amount of the release of metabolites from the individual vitamin E forms in cell culture as well as in experimental animals and in humans. Recent findings not only proposed an CYP3A4-mediated degradation of vitamin E but also suggested an induction of the metabolizing enzymes by vitamin E itself. In order to investigate how vitamin E is able to influence the expression of metabolizing enzymes like CYP3A4, a pregnane X receptor (PXR)-based reporter gene assay was chosen. PXR is a nuclear receptor which regulates the transcription of genes, e.g., CYP3A4, by binding to specific DNA response elements. And indeed, as shown here, vitamin E is able to influence the expression of CYP3A via PXR in an in vitro reporter gene assay. Tocotrienols showed the highest activity followed by delta- and alpha-tocopherol. An up-regulation of Cyp3a11 mRNA, the murine homolog of the human CYP3A4, could also be confirmed in an animal experiment. The PXR-mediated change in gene expression displayed the first evidence of a direct transcriptional activity of vitamin E. PXR regulates the expression of genes involved in xenobiotic detoxification, including oxidation, conjugation, and transport. CYP3A, e.g., is involved in the oxidative metabolism of numerous currently used drugs. This opens a discussion of possible side effects of vitamin E, but the extent to which supranutritional doses of vitamin E modulate these pathways in humans has yet to be determined. Additionally, as there is arising evidence that vitamin E's essentiality is more likely to be based on gene regulation than on antioxidant functions, it appeared necessary to further investigate the ability of vitamin E to influence gene expression. Mice were divided in three groups with diets (i) deficient in alpha-tocopherol, (ii) adequate in alpha-tocopherol supply and (iii) with a supranutritional dosage of alpha-tocopherol. After three months, half of each group was supplemented via a gastric tube with a supranutritional dosage of gamma-tocotrienol per day for 7 days. Livers were analyzed for vitamin E content and liver RNA was prepared for hybridization using cDNA array and oligonucleotide array technology. A significant change in gene expression was observed by alpha-tocopherol but not by gamma-tocotrienol and only using the oligonucleotide array but not using the cDNA array. The latter effect is most probably due to the limited number of genes represented on a cDNA array, the lacking gamma-tocotrienol effect is obviously caused by a rapid degradation, which might prevent bioefficacy of gamma-tocotrienol. Alpha-tocopherol changed the expression of various genes. The most striking observation was an up-regulation of genes, which code for proteins involved in synaptic transmitter release and calcium signal transduction. Synapsin, synaptotagmin, synaptophysin, synaptobrevin, RAB3A, complexin 1, Snap25, ionotropic glutamate receptors (alpha 2 and zeta 1) were shown to be up-regulated in the supranutritional group compared to the deficient group. The up-regulation of synaptic genes shown in this work are not only supported by the strong concentration of genes which all are involved in the process of vesicular transport of neurotransmitters, but were also confirmed by a recent publication. However, a confirmation by real time PCR in neuronal tissue like brain is now required to explain the effect of vitamin E on neurological functionality. The change in expression of genes coding for synaptic proteins by vitamin E is of principal interest thus far, since the only human disease directly originating from an inadequate vitamin E status is ataxia with isolated vitamin E deficiency. Therefore, with the results of this work, an explanation for the observed neurological symptoms associated with vitamin E deficiency can be presented for the first time. N2 - Chemisch handelt es sich bei Vitamin E um acht lipophile Derivate des 6 Chromanols mit einer Seitenkette. Nach dem Sättigungsgrad der Seitenkette lassen sich die Derivate in die Tocopherole (gesättigte Seitenkette) und die Tocotrienole (ungesättigte Seitenkette mit drei Doppelbindungen) einteilen. Entsprechend der Methylierung des Chromanrings lassen sie sich in alpha-, beta-, gamma- und delta-Tocopherol, bzw. Tocotrienol unterscheiden. Davon besitzt alpha-Tocopherol, das gleichzeitig die im Plasma dominierende Form darstellt, die höchste biologische Aktivität. Aufnahme wie auch der Transport von Vitamin E im Körper sind vergleichsweise gut erforscht. Die Kenntnisse zu Metabolismus und Elimination waren jedoch bis vor kurzem sehr lückenhaft. Lange Zeit waren nur Vitamin E-Metabolite mit geöffnetem Chromanring, die sogenannten Simon-Metabolite Tocopheronsäure und Tocopheronolacton bekannt. Diese Metabolite können nur aus oxidativ gespaltenem Vitamin E entstehen und galten daher auch als Beweis für die antioxidative Wirkung von Vitamin E. Mit verbesserter Analytik wurde vor einigen Jahren gezeigt, dass die Simon-Metabolite größtenteils Isolierungsartefakte sind. Stattdessen wurden Metabolite mit intaktem Chromanring identifiziert. Tocopherole wie auch Tocotrienole werden im Körper durch eine Verkürzung der Seitenkette abgebaut. Die Endprodukte sind in jedem Fall CEHCs (Carboxyethyl Hydroxychromane). Die Seitenkettenverkürzung startet mit einer omega-Hydroxylierung gefolgt von 5 Schritten beta-Oxidation. Die omega Hydroxylierung der Seitenkette durch Cytochrom P450 (CYP) Enzyme wurde indirekt bestätigt. CYP3A4 gilt dabei als eines der wahrscheinlichsten Enzyme im Abbau von Vitamin E, die Beteiligung weiterer CYPs wird jedoch gleichfalls angenommen. Auffällig ist, dass nicht alle Vitamin E-Formen in gleichem Ausmaß abgebaut werden. Die Ausscheidung von CEHCs aus alpha-Tocopherol ist, verglichen zu andern Vitamin E-Formen, in kultivierten Zellen wie auch in vivo sehr gering. Die Art der Seitenkettenverkürzung von Vitamin E spricht für einen Abbau über das Fremdstoff-metabolisierende System, welches auch eine Vielzahl von Medikamenten verstoffwechselt. Im ersten Teil der vorliegenden Arbeit konnte mittels Reportergenassay in HepG2 Zellen gezeigt werden, dass Vitamin E einen nukleären Rezeptor, den Pregnan X Rezeptor (PXR), zu aktivieren und die Expression von PXR-regulierten Genen zu beeinflussen vermag. PXR reguliert eine Reihe von Genen für Fremdstoff-metabolisierende Enzyme wie z.B. Cytochrom P450 3A4 durch Bindung an sein responsives Element im Promotor der Zielgene. Die untersuchten Vitamin E-Formen unterschieden sich deutlich hinsichtlich ihrer PXR-Aktivierung. Die Tocotrienole zeigten die höchste PXR-Aktivierung - vergleichbar mit Rifampicin, einem bekannt guten PXR-Aktivator - gefolgt von delta , alpha- und gamma-Tocopherol. Im Tierversuch an Mäusen konnte die erhöhte Expression von Cyp3a11, dem Homolog des humanen CYP3A4 in Abhängigkeit von der alpha-Tocopherol-Zufuhr bestätigt werden. Somit konnte erstmals gezeigt werden, dass Vitamin E die Expression von Genen direkt beeinflussen kann. Darüber hinaus unterstreicht diese Beobachtung die Möglichkeit einer Wechselwirkung von pharmakologischen Dosen Vitamin E mit dem Abbau von Medikamenten. Eine genregulatorische Funktion von Vitamin E ist auf den ersten Blick überraschend. Denn wenngleich Vitamin E vor über 80 Jahren als Fertilitätsfaktor bei Ratten entdeckt wurde, steht die erst später beschriebene antioxidative Eigenschaft von Vitamin E bis heute im Fokus der meisten Publikationen. Die molekularen Mechanismen der Essentialität von Vitamin E wurden dagegen wenig untersucht. Erst in den letzten Jahren finden Funktionen von Vitamin E Interesse, die über seine antioxidative Wirkung hinausgehen. Dabei konnte gezeigt werden, dass Vitamin E in vitro die Expression von Genen wie dem Scavenger Rezeptor CD36, dem Connective Tissue Growth Factor oder dem Peroxisomen-Proliferator aktivierten Rezeptor gamma beeinflussen kann. Um weitere Zielgene von Vitamin E in vivo identifizieren zu können, wurden im zweiten Teil der vorliegenden Arbeit Mäuse in drei Fütterungsgruppen mit einer a) defizientem b) adäquatem sowie c) mit einer supranutritiven alpha Tocopherol-Versorgung über 3 Monate gefüttert. Zusätzlich erhielt die Hälfte der Tiere aus jeder Gruppe während der letzten Lebenswoche eine supranutritive Dosis gamma-Tocotrienol pro Tag. Aus den Lebern der Tiere wurde die RNA präpariert und die differentielle Genexpression mittels a) cDNA und b) Oligonukleotide enthaltenden GenChips analysiert. Eine signifikante Änderung in der Genexpression zwischen den verschiedenen Fütterungsgruppen fand sich jedoch nur in den Analysen der Oligonukleotid GenChips. Dies kann auf die begrenzte Anzahl von Genen zurückzuführen sein, die auf den cDNA GenChips repräsentiert waren. Auch ein signifikanter Effekt von gamma-Tocotrienol auf die Genexpression konnte nicht beobachtet werden. Wahrscheinlich ist die hohe Ausscheidung von gamma-CEHC, dem Abbauprodukt von gamma-Tocotrienol, die im Urin der Tiere gemessen wurde und die damit womöglich verringerte Bioverfügbarkeit von gamma-Tocotrienol dafür verantwortlich. Mit Hilfe der Oligonukleotid GenChips konnte jedoch ein signifikanter Effekt von alpha-Tocopherol auf die Expression einer Vielzahl von Genen beobachtet werden. Herausstechend war dabei die erhöhte Expression von für den vesikulären Transport essentiellen Genen, die für den synaptischen Signaltransfer benötigt werden. So wurden z.B. Synapsin, Synaptotagmin, Synaptophysin, Synaptobrevin, RAB3A, Complexin 1, Snap25, die ionotrophen Glutamat Rezeptoren alpha 2 und zeta 1 in Abhängigkeit von der alpha Tocopherol-Versorgung über die Diät erhöht exprimiert. Die Beobachtung, dass Vitamin E bei neurologischen Prozessen eine Rolle zu spielen scheint ist jedoch nicht neu. Bei Patienten mit einem Mangel an funktionellem alpha-Tocopherol-Transfer-Protein (alpha-TTP) kann es zu stark verringerten Plasmakonzentrationen an Vitamin E kommen, da alpha-TTP eine zentrale Rolle in der Aufnahme und Verteilung von Vitamin E im Körper einnimmt. An diesen Patienten können charakteristische Vitamin E-Mangelzustände beobachtet, die durch eine Reihe von neurologischen Störungen wie Ataxien, Hyporeflexie sowie eine verringerte propriozeptive und vibratorische Sensitivität gekennzeichnet sind. Mit den vorliegenden Ergebnissen kann nun erstmals eine mechanistische Erklärung für diese Symptome diskutiert werden. Eine Bestätigung der vorliegenden Ergebnisse via RT-PCR und Western Blot, z.B. in neuronalem Gewebe wie dem Gehirn, sowie anschließende funktionellen Untersuchungen ist daher dringend geboten. T2 - Vitamin E : elucidation of the mechanism of side chain degradation and gene regulatory functions KW - Vitamin E KW - Vitamin K KW - Vitamin E KW - Vitamin K KW - Tocopherol KW - Tocotrienol KW - Pregnane X Receptor KW - PXR KW - Differential Gene Expression KW - Gene Chip KW - Gene Array Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5222 ER - TY - THES A1 - Zona, Carlotta Isabella T1 - Visuo-linguistic integration for thematic-role assignment across speakers T1 - Visuell-linguistische Integration für die Zuweisung thematischer Rollen über Sprecher hinweg N2 - This dissertation examines the integration of incongruent visual-scene and morphological-case information (“cues”) in building thematic-role representations of spoken relative clauses in German. Addressing the mutual influence of visual and linguistic processing, the Coordinated Interplay Account (CIA) describes a mechanism in two steps supporting visuo-linguistic integration (Knoeferle & Crocker, 2006, Cog Sci). However, the outcomes and dynamics of integrating incongruent thematic-role representations from distinct sources have been investigated scarcely. Further, there is evidence that both second-language (L2) and older speakers may rely on non-syntactic cues relatively more than first-language (L1)/young speakers. Yet, the role of visual information for thematic-role comprehension has not been measured in L2 speakers, and only limitedly across the adult lifespan. Thematically unambiguous canonically ordered (subject-extracted) and noncanonically ordered (object-extracted) spoken relative clauses in German (see 1a-b) were presented in isolation and alongside visual scenes conveying either the same (congruent) or the opposite (incongruent) thematic relations as the sentence did. 1 a Das ist der Koch, der die Braut verfolgt. This is the.NOM cook who.NOM the.ACC bride follows This is the cook who is following the bride. b Das ist der Koch, den die Braut verfolgt. This is the.NOM cook whom.ACC the.NOM bride follows This is the cook whom the bride is following. The relative contribution of each cue to thematic-role representations was assessed with agent identification. Accuracy and latency data were collected post-sentence from a sample of L1 and L2 speakers (Zona & Felser, 2023), and from a sample of L1 speakers from across the adult lifespan (Zona & Reifegerste, under review). In addition, the moment-by-moment dynamics of thematic-role assignment were investigated with mouse tracking in a young L1 sample (Zona, under review). The following questions were addressed: (1) How do visual scenes influence thematic-role representations of canonical and noncanonical sentences? (2) How does reliance on visual-scene, case, and word-order cues vary in L1 and L2 speakers? (3) How does reliance on visual-scene, case, and word-order cues change across the lifespan? The results showed reliable effects of incongruence of visually and linguistically conveyed thematic relations on thematic-role representations. Incongruent (vs. congruent) scenes yielded slower and less accurate responses to agent-identification probes presented post-sentence. The recently inspected agent was considered as the most likely agent ~300ms after trial onset, and the convergence of visual scenes and word order enabled comprehenders to assign thematic roles predictively. L2 (vs. L1) participants relied more on word order overall. In response to noncanonical clauses presented with incongruent visual scenes, sensitivity to case predicted the size of incongruence effects better than L1-L2 grouping. These results suggest that the individual’s ability to exploit specific cues might predict their weighting. Sensitivity to case was stable throughout the lifespan, while visual effects increased with increasing age and were modulated by individual interference-inhibition levels. Thus, age-related changes in comprehension may stem from stronger reliance on visually (vs. linguistically) conveyed meaning. These patterns represent evidence for a recent-role preference – i.e., a tendency to re-assign visually conveyed thematic roles to the same referents in temporally coordinated utterances. The findings (i) extend the generalizability of CIA predictions across stimuli, tasks, populations, and measures of interest, (ii) contribute to specifying the outcomes and mechanisms of detecting and indexing incongruent representations within the CIA, and (iii) speak to current efforts to understand the sources of variability in sentence comprehension. N2 - Diese Dissertation untersucht die Integration inkongruenter visueller Szenen- und morphologisch-kasusbezogener Informationen ("Hinweise") beim Aufbau thematischer Rollenrepräsentationen gesprochener Relativsätze auf Deutsch. Das Coordinated Interplay Account (CIA) beschreibt einen Mechanismus in zwei Schritten zur Unterstützung der visuell-linguistischen Integration, der die wechselseitige Beeinflussung visueller und sprachlicher Verarbeitung adressiert (Knoeferle & Crocker, 2006, Cog Sci). Die Ergebnisse und Dynamiken der Integration inkongruenter thematischer Rollenrepräsentationen aus verschiedenen Quellen wurden jedoch kaum untersucht. Außerdem gibt es Hinweise darauf, dass sich sowohl Zweitsprachler (L2) als auch ältere Sprecher möglicherweise relativ stärker auf nicht-syntaktische Hinweise verlassen als Erstsprachler (L1)/jüngere Sprecher. Dennoch wurde die Rolle visueller Informationen für das Verständnis thematischer Rollen bei L2-Sprechern nicht gemessen und nur begrenzt über die gesamte Lebensspanne hinweg. Thematisch eindeutige, kanonisch geordnete (subjektausgezogene) und nichtkanonisch geordnete (objektausgezogene) gesprochene Relativsätze auf Deutsch (siehe 1a-b) wurden isoliert und zusammen mit visuellen Szenen präsentiert, die entweder dieselben (kongruente) oder entgegengesetzte (inkongruente) thematische Beziehungen wie der Satz vermittelten. Die relative Beitrag jedes Hinweises zur thematischen Rollenrepräsentation wurde durch die Identifizierung des Agenten bewertet. Genauigkeits- und Latenzdaten wurden nach dem Satz von einer Stichprobe von L1- und L2-Sprechern (Zona & Felser, 2023) sowie von einer Stichprobe von L1-Sprechern über die Lebensspanne hinweg (Zona & Reifegerste, in Überprüfung) gesammelt. Darüber hinaus wurden die momentane Dynamik der Zuweisung thematischer Rollen mit Mausverfolgung in einer jungen L1-Stichprobe untersucht (Zona, in Überprüfung). Die folgenden Fragen wurden adressiert: (1) Wie beeinflussen visuelle Szenen thematische Rollenrepräsentationen kanonischer und nichtkanonischer Sätze? (2) Wie variiert der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise bei L1- und L2-Sprechern? (3) Wie verändert sich der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise im Laufe des Lebens? Die Ergebnisse zeigten zuverlässige Effekte der Inkongruenz visuell und sprachlich vermittelter thematischer Beziehungen auf thematische Rollenrepräsentationen. Inkongruente (vs. kongruente) Szenen führten zu langsameren und weniger genauen Reaktionen auf Agentenidentifikationsproben, die nach dem Satz präsentiert wurden. Der kürzlich inspizierte Agent wurde etwa 300 ms nach Beginn des Versuchs als der wahrscheinlichste Agent betrachtet, und die Übereinstimmung von visuellen Szenen und Wortstellung ermöglichte es den Verstehenden, thematische Rollen vorherzusagen. L2-Teilnehmer (vs. L1) verließen sich insgesamt stärker auf die Wortstellung. Auf nichtkanonische Klauseln, die mit inkongruenten visuellen Szenen präsentiert wurden, sagte die Sensibilität für den Kasus die Größe der Inkongruenzeffekte besser vorher als die Einteilung in L1-L2. Diese Ergebnisse legen nahe, dass die Fähigkeit des Einzelnen, bestimmte Hinweise auszunutzen, ihr Gewicht vorhersagen könnte. Die Sensibilität für den Kasus blieb über die Lebensspanne hinweg stabil, während sich visuelle Effekte mit zunehmendem Alter verstärkten und durch individuelle Interferenz-Hemmungslevel moduliert wurden. Somit können altersbedingte Veränderungen im Verständnis von einer stärkeren Abhängigkeit von visuell (vs. sprachlich) vermittelter Bedeutung herrühren. Diese Muster stellen einen Beleg für eine Präferenz für kürzlich eingeführte Rollen dar - d. h. eine Tendenz, visuell vermittelte thematische Rollen den gleichen Referenten in zeitlich koordinierten Äußerungen neu zuzuweisen. Die Ergebnisse (i) erweitern die Verallgemeinerbarkeit der Vorhersagen des CIAs über Stimuli, Aufgaben, Populationen und Interessenmaße hinweg, (ii) tragen zur Spezifizierung der Ergebnisse und Mechanismen bei der Erkennung und Indizierung inkongruenter Repräsentationen innerhalb des CIAs bei und (iii) sprechen aktuelle Bemühungen an, die Quellen der Variabilität im Satzverständnis zu verstehen. KW - spoken sentence comprehension KW - visuo-linguistic integration KW - thematic-role assignment KW - Sprachverständnis KW - Zuweisung thematischer Rollen KW - visuell-linguistische Integration Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-631857 ER - TY - THES A1 - Trümper, Jonas T1 - Visualization techniques for the analysis of software behavior and related structures T1 - Visualisierungstechniken für die Analyse von Softwareverhalten und verwandter Strukturen N2 - Software maintenance encompasses any changes made to a software system after its initial deployment and is thereby one of the key phases in the typical software-engineering lifecycle. In software maintenance, we primarily need to understand structural and behavioral aspects, which are difficult to obtain, e.g., by code reading. Software analysis is therefore a vital tool for maintaining these systems: It provides - the preferably automated - means to extract and evaluate information from their artifacts such as software structure, runtime behavior, and related processes. However, such analysis typically results in massive raw data, so that even experienced engineers face difficulties directly examining, assessing, and understanding these data. Among other things, they require tools with which to explore the data if no clear question can be formulated beforehand. For this, software analysis and visualization provide its users with powerful interactive means. These enable the automation of tasks and, particularly, the acquisition of valuable and actionable insights into the raw data. For instance, one means for exploring runtime behavior is trace visualization. This thesis aims at extending and improving the tool set for visual software analysis by concentrating on several open challenges in the fields of dynamic and static analysis of software systems. This work develops a series of concepts and tools for the exploratory visualization of the respective data to support users in finding and retrieving information on the system artifacts concerned. This is a difficult task, due to the lack of appropriate visualization metaphors; in particular, the visualization of complex runtime behavior poses various questions and challenges of both a technical and conceptual nature. This work focuses on a set of visualization techniques for visually representing control-flow related aspects of software traces from shared-memory software systems: A trace-visualization concept based on icicle plots aids in understanding both single-threaded as well as multi-threaded runtime behavior on the function level. The concept’s extensibility further allows the visualization and analysis of specific aspects of multi-threading such as synchronization, the correlation of such traces with data from static software analysis, and a comparison between traces. Moreover, complementary techniques for simultaneously analyzing system structures and the evolution of related attributes are proposed. These aim at facilitating long-term planning of software architecture and supporting management decisions in software projects by extensions to the circular-bundle-view technique: An extension to 3-dimensional space allows for the use of additional variables simultaneously; interaction techniques allow for the modification of structures in a visual manner. The concepts and techniques presented here are generic and, as such, can be applied beyond software analysis for the visualization of similarly structured data. The techniques' practicability is demonstrated by several qualitative studies using subject data from industry-scale software systems. The studies provide initial evidence that the techniques' application yields useful insights into the subject data and its interrelationships in several scenarios. N2 - Die Softwarewartung umfasst alle Änderungen an einem Softwaresystem nach dessen initialer Bereitstellung und stellt damit eine der wesentlichen Phasen im typischen Softwarelebenszyklus dar. In der Softwarewartung müssen wir insbesondere strukturelle und verhaltensbezogene Aspekte verstehen, welche z.B. alleine durch Lesen von Quelltext schwer herzuleiten sind. Die Softwareanalyse ist daher ein unverzichtbares Werkzeug zur Wartung solcher Systeme: Sie bietet - vorzugsweise automatisierte - Mittel, um Informationen über deren Artefakte, wie Softwarestruktur, Laufzeitverhalten und verwandte Prozesse, zu extrahieren und zu evaluieren. Eine solche Analyse resultiert jedoch typischerweise in großen und größten Rohdaten, die selbst erfahrene Softwareingenieure direkt nur schwer untersuchen, bewerten und verstehen können. Unter Anderem dann, wenn vorab keine klare Frage formulierbar ist, benötigen sie Werkzeuge, um diese Daten zu erforschen. Hierfür bietet die Softwareanalyse und Visualisierung ihren Nutzern leistungsstarke, interaktive Mittel. Diese ermöglichen es Aufgaben zu automatisieren und insbesondere wertvolle und belastbare Einsichten aus den Rohdaten zu erlangen. Beispielsweise ist die Visualisierung von Software-Traces ein Mittel, um das Laufzeitverhalten eines Systems zu ergründen. Diese Arbeit zielt darauf ab, den "Werkzeugkasten" der visuellen Softwareanalyse zu erweitern und zu verbessern, indem sie sich auf bestimmte, offene Herausforderungen in den Bereichen der dynamischen und statischen Analyse von Softwaresystemen konzentriert. Die Arbeit entwickelt eine Reihe von Konzepten und Werkzeugen für die explorative Visualisierung der entsprechenden Daten, um Nutzer darin zu unterstützen, Informationen über betroffene Systemartefakte zu lokalisieren und zu verstehen. Da es insbesondere an geeigneten Visualisierungsmetaphern mangelt, ist dies eine schwierige Aufgabe. Es bestehen, insbesondere bei komplexen Softwaresystemen, verschiedenste offene technische sowie konzeptionelle Fragestellungen und Herausforderungen. Diese Arbeit konzentriert sich auf Techniken zur visuellen Darstellung kontrollflussbezogener Aspekte aus Software-Traces von Shared-Memory Softwaresystemen: Ein Trace-Visualisierungskonzept, basierend auf Icicle Plots, unterstützt das Verstehen von single- und multi-threaded Laufzeitverhalten auf Funktionsebene. Die Erweiterbarkeit des Konzepts ermöglicht es zudem spezifische Aspekte des Multi-Threading, wie Synchronisation, zu visualisieren und zu analysieren, derartige Traces mit Daten aus der statischen Softwareanalyse zu korrelieren sowie Traces mit einander zu vergleichen. Darüber hinaus werden komplementäre Techniken für die kombinierte Analyse von Systemstrukturen und der Evolution zugehöriger Eigenschaften vorgestellt. Diese zielen darauf ab, die Langzeitplanung von Softwarearchitekturen und Management-Entscheidungen in Softwareprojekten mittels Erweiterungen an der Circular-Bundle-View-Technik zu unterstützen: Eine Erweiterung auf den 3-dimensionalen Raum ermöglicht es zusätzliche visuelle Variablen zu nutzen; Strukturen können mithilfe von Interaktionstechniken visuell bearbeitet werden. Die gezeigten Techniken und Konzepte sind allgemein verwendbar und lassen sich daher auch jenseits der Softwareanalyse einsetzen, um ähnlich strukturierte Daten zu visualisieren. Mehrere qualitative Studien an Softwaresystemen in industriellem Maßstab stellen die Praktikabilität der Techniken dar. Die Ergebnisse sind erste Belege dafür, dass die Anwendung der Techniken in verschiedenen Szenarien nützliche Einsichten in die untersuchten Daten und deren Zusammenhänge liefert. KW - Visualisierung KW - Softwarewartung KW - Softwareanalyse KW - Softwarevisualisierung KW - Laufzeitverhalten KW - visualization KW - software maintenance KW - software analysis KW - software visualization KW - runtime behavior Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72145 ER - TY - THES A1 - Schmallowsky, Antje T1 - Visualisierung dynamischer Raumphänomene in Geoinformationssystemen T1 - Visualization of dynamic spatial phenomena in geographic information systems N2 - Die visuelle Kommunikation ist eine effiziente Methode, um dynamische Phänomene zu beschreiben. Informationsobjekte präzise wahrzunehmen, einen schnellen Zugriff auf strukturierte und relevante Informationen zu ermöglichen, erfordert konsistente und nach dem formalen Minimalprinzip konzipierte Analyse- und Darstellungsmethoden. Dynamische Raumphänomene in Geoinformationssystemen können durch den Mangel an konzeptionellen Optimierungsanpassungen aufgrund ihrer statischen Systemstruktur nur bedingt die Informationen von Raum und Zeit modellieren. Die Forschung in dieser Arbeit ist daher auf drei interdisziplinäre Ansätze fokussiert. Der erste Ansatz stellt eine echtzeitnahe Datenerfassung dar, die in Geodatenbanken zeitorientiert verwaltet wird. Der zweite Ansatz betrachtet Analyse- und Simulationsmethoden, die das dynamische Verhalten analysieren und prognostizieren. Der dritte Ansatz konzipiert Visualisierungsmethoden, die insbesondere dynamische Prozesse abbilden. Die Symbolisierung der Prozesse passt sich bedarfsweise in Abhängigkeit des Prozessverlaufes und der Interaktion zwischen Datenbanken und Simulationsmodellen den verschiedenen Entwicklungsphasen an. Dynamische Aspekte können so mit Hilfe bewährter Funktionen aus der GI-Science zeitnah mit modularen Werkzeugen entwickelt und visualisiert werden. Die Analyse-, Verschneidungs- und Datenverwaltungsfunktionen sollen hierbei als Nutzungs- und Auswertungspotential alternativ zu Methoden statischer Karten dienen. Bedeutend für die zeitliche Komponente ist das Verknüpfen neuer Technologien, z. B. die Simulation und Animation, basierend auf einer strukturierten Zeitdatenbank in Verbindung mit statistischen Verfahren. Methodisch werden Modellansätze und Visualisierungstechniken entwickelt, die auf den Bereich Verkehr transferiert werden. Verkehrsdynamische Phänomene, die nicht zusammenhängend und umfassend darstellbar sind, werden modular in einer serviceorientierten Architektur separiert, um sie in verschiedenen Ebenen räumlich und zeitlich visuell zu präsentieren. Entwicklungen der Vergangenheit und Prognosen der Zukunft werden über verschiedene Berechnungsmethoden modelliert und visuell analysiert. Die Verknüpfung einer Mikrosimulation (Abbildung einzelner Fahrzeuge) mit einer netzgesteuerten Makrosimulation (Abbildung eines gesamten Straßennetzes) ermöglicht eine maßstabsunabhängige Simulation und Visualisierung des Mobilitätsverhaltens ohne zeitaufwendige Bewertungsmodellberechnungen. Zukünftig wird die visuelle Analyse raum-zeitlicher Veränderungen für planerische Entscheidungen ein effizientes Mittel sein, um Informationen übergreifend verfügbar, klar strukturiert und zweckorientiert zur Verfügung zu stellen. Der Mehrwert durch visuelle Geoanalysen, die modular in einem System integriert sind, ist das flexible Auswerten von Messdaten nach zeitlichen und räumlichen Merkmalen. N2 - Visual communication is an efficient method to describe dynamic phenomena. Perceiving information objects precisely and facilitating quick access to structured and relevant information requires consistent analysis and presentation methods conceived according to the formal minimisation principle. Because of the lack of conceptual optimisation adaptations due to their static system structure, dynamic space phenomena in geoinformation systems can only model the information of time and space conditionally. This is why research in this paper focuses on three interdisciplinary approaches. The first approach represents data collection close to real-time which is administered in geodatabases in a time-oriented manner. The second approach looks at analysis and simulation methods that analyse and forecast dynamic behaviour. The third approach conceives visualisation methods that model dynamic processes in particular. Where required, the symbolising of processes adapts to the various development phases depending on the process flow and the interaction between databases and simulation models. This allows dynamic aspects to be developed and visualised in a timely manner using modular tools with the help of proven geoscience functions. The analysis, intersection and data administration functions are intended to serve as utilisation and analysis potential as an alternative to static chart methods. For the time component, linking new technologies such as simulation and animation is significant based on a structured time database in connection with statistical methods. Modelling approaches and visualisation techniques are methodically developed and transferred to the traffic field. Dynamic traffic phenomena that cannot be modelled cohesively and comprehensively are separated into a service-oriented modular architecture in order to present them visually on different levels of space and time. Past developments and forecasts are modelled and visually analysed using various calculation methods. Linking a micro-simulation (modelling individual vehicles) to a network-controlled macro-simulation (modelling an entire road network) makes it possible to simulate and visualise mobility behaviour regardless of scale without time-consuming analysis model calculations. In the future, the visual analysis of space-time changes for planning decisions will be an efficient tool in order to make comprehensive, clearly structured and appropriate information available. The flexible analysis of measurement data according to time and space criteria represents the added value of visual geoanalysis integrated into a system with a modular structure. KW - Visualisierung KW - dynamischer Raumphänomene KW - GIS KW - Dynamik KW - Kartographie KW - Kommunikation KW - Geodaten KW - Zeit GIS KW - temporale Symbolik KW - Visualization KW - dynamic spatial phenomena KW - GIS KW - dynamics KW - cartography KW - communication KW - spatial data KW - geosience KW - temporale Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41262 ER - TY - THES A1 - Gandhi, Nilima T1 - Visionary leadership and job satisfaction T1 - Visionäre Führung und Arbeitszufriedenheit BT - an empirical investigation BT - eine empirische Untersuchung N2 - Current business organizations want to be more efficient and constantly evolving to find ways to retain talent. It is well established that visionary leadership plays a vital role in organizational success and contributes to a better working environment. This study aims to determine the effect of visionary leadership on employees' perceived job satisfaction. Specifically, it investigates whether the mediators meaningfulness at work and commitment to the leader impact the relationship. I take support from job demand resource theory to explain the overarching model used in this study and broaden-and-build theory to leverage the use of mediators. To test the hypotheses, evidence was collected in a multi-source, time-lagged design field study of 95 leader-follower dyads. The data was collected in a three-wave study, each survey appearing after one month. Data on employee perception of visionary leadership was collected in T1, data for both mediators were collected in T2, and employee perception of job satisfaction was collected in T3. The findings display that meaningfulness at work and commitment to the leader play positive intervening roles (in the form of a chain) in the indirect influence of visionary leadership on employee perceptions regarding job satisfaction. This research offers contributions to literature and theory by first broadening the existing knowledge on the effects of visionary leadership on employees. Second, it contributes to the literature on constructs meaningfulness at work, commitment to the leader, and job satisfaction. Third, it sheds light on the mediation mechanism dealing with study variables in line with the proposed model. Fourth, it integrates two theories, job demand resource theory and broaden-and-build theory providing further evidence. Additionally, the study provides practical implications for business leaders and HR practitioners. Overall, my study discusses the potential of visionary leadership behavior to elevate employee outcomes. The study aligns with previous research and answers several calls for further research on visionary leadership, job satisfaction, and mediation mechanism with meaningfulness at work and commitment to the leader. N2 - Heutige Unternehmen wollen effizienter sein und sich ständig weiterentwickeln, um Talente zu binden. Es ist bekannt, dass visionäre Führung eine wichtige Rolle für den Erfolg eines Unternehmens spielt und zu einem besseren Arbeitsumfeld beiträgt. Ziel dieser Studie ist es, die Auswirkungen visionärer Führung auf die wahrgenommene Arbeitszufriedenheit der Mitarbeiter zu ermitteln. Insbesondere wird untersucht, ob die Mediatoren Sinnhaftigkeit der Arbeit und Bindung an die Führungskraft einen Einfluss auf diese Beziehung haben. Ich stütze mich auf die Job Demand Resource theory, um das in dieser Studie verwendete übergreifende Modell zu erklären, und auf die Broaden-and-Build theory, um die Verwendung von Mediatoren zu nutzen. Um die Hypothesen zu testen, wurden in einer Feldstudie mit mehreren Quellen und zeitlich versetztem Design Daten von 95 aus Führungskraft und Geführten bestehenden Dyaden gesammelt. In einer Drei-Wellen-Studie wurden die Daten zur Wahrnehmung visionärer Führung durch die Mitarbeiter in T1, Daten zu den beiden Mediatoren in T2 und schließlich die Wahrnehmung der Arbeitszufriedenheit durch die Mitarbeiter in T3 erhoben. Die Ergebnisse zeigen, dass Sinnhaftigkeit bei der Arbeit und Bindung an die Führungskraft positive intervenierende Rollen (in Form einer Kette) beim indirekten Einfluss von visionärer Führung auf die Wahrnehmung der Arbeitszufriedenheit der Mitarbeiter spielen. Diese Studie leistet einen Beitrag zur Literatur und Theorie, indem sie erstens das vorhandene Wissen über die Auswirkungen visionärer Führung auf die Mitarbeiter erweitert. Zweitens trägt sie zur Literatur über die Konstrukte Sinnhaftigkeit bei der Arbeit, Bindung an die Führungskraft und Arbeitszufriedenheit bei. Drittens beleuchtet sie den Mediationsmechanismus, der mit den Untersuchungsvariablen im Einklang mit dem vorgeschlagenen Modell steht. Viertens integriert sie zwei Theorien, die Job Demand Resource theory und die Broaden-and-Build theory, und liefert damit weitere Belege. Darüber hinaus liefert die Studie praktische Implikationen für Unternehmensleiter und HR-Praktiker. Insgesamt erörtert meine Studie das Potenzial von visionärem Führungsverhalten zur Verbesserung der Mitarbeiterergebnisse. Die Studie steht im Einklang mit früheren Forschungsarbeiten und beantwortet mehrere Forderungen nach weiterer Forschung zu visionärer Führung, Arbeitszufriedenheit und Vermittlungsmechanismen mit Sinnhaftigkeit bei der Arbeit und Bindung an die Führungskraft. KW - visionary leadership KW - meaningfulness at work KW - commitment to the leader KW - job satisfaction KW - visionäre Führung KW - Engagement für die Führungskraft KW - Arbeitszufriedenheit KW - Sinnhaftigkeit der Arbeit Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-572691 ER - TY - THES A1 - Marwecki, Sebastian T1 - Virtualizing physical space T1 - Virtualisierung von Physischem Raum N2 - The true cost for virtual reality is not the hardware, but the physical space it requires, as a one-to-one mapping of physical space to virtual space allows for the most immersive way of navigating in virtual reality. Such “real-walking” requires physical space to be of the same size and the same shape of the virtual world represented. This generally prevents real-walking applications from running on any space that they were not designed for. To reduce virtual reality’s demand for physical space, creators of such applications let users navigate virtual space by means of a treadmill, altered mappings of physical to virtual space, hand-held controllers, or gesture-based techniques. While all of these solutions succeed at reducing virtual reality’s demand for physical space, none of them reach the same level of immersion that real-walking provides. Our approach is to virtualize physical space: instead of accessing physical space directly, we allow applications to express their need for space in an abstract way, which our software systems then map to the physical space available. We allow real-walking applications to run in spaces of different size, different shape, and in spaces containing different physical objects. We also allow users immersed in different virtual environments to share the same space. Our systems achieve this by using a tracking volume-independent representation of real-walking experiences — a graph structure that expresses the spatial and logical relationships between virtual locations, virtual elements contained within those locations, and user interactions with those elements. When run in a specific physical space, this graph representation is used to define a custom mapping of the elements of the virtual reality application and the physical space by parsing the graph using a constraint solver. To re-use space, our system splits virtual scenes and overlap virtual geometry. The system derives this split by means of hierarchically clustering of our virtual objects as nodes of our bi-partite directed graph that represents the logical ordering of events of the experience. We let applications express their demands for physical space and use pre-emptive scheduling between applications to have them share space. We present several application examples enabled by our system. They all enable real-walking, despite being mapped to physical spaces of different size and shape, containing different physical objects or other users. We see substantial real-world impact in our systems. Today’s commercial virtual reality applications are generally designing to be navigated using less immersive solutions, as this allows them to be operated on any tracking volume. While this is a commercial necessity for the developers, it misses out on the higher immersion offered by real-walking. We let developers overcome this hurdle by allowing experiences to bring real-walking to any tracking volume, thus potentially bringing real-walking to consumers. Die eigentlichen Kosten für Virtual Reality Anwendungen entstehen nicht primär durch die erforderliche Hardware, sondern durch die Nutzung von physischem Raum, da die eins-zu-eins Abbildung von physischem auf virtuellem Raum die immersivste Art von Navigation ermöglicht. Dieses als „Real-Walking“ bezeichnete Erlebnis erfordert hinsichtlich Größe und Form eine Entsprechung von physischem Raum und virtueller Welt. Resultierend daraus können Real-Walking-Anwendungen nicht an Orten angewandt werden, für die sie nicht entwickelt wurden. Um den Bedarf an physischem Raum zu reduzieren, lassen Entwickler von Virtual Reality-Anwendungen ihre Nutzer auf verschiedene Arten navigieren, etwa mit Hilfe eines Laufbandes, verfälschten Abbildungen von physischem zu virtuellem Raum, Handheld-Controllern oder gestenbasierten Techniken. All diese Lösungen reduzieren zwar den Bedarf an physischem Raum, erreichen jedoch nicht denselben Grad an Immersion, den Real-Walking bietet. Unser Ansatz zielt darauf, physischen Raum zu virtualisieren: Anstatt auf den physischen Raum direkt zuzugreifen, lassen wir Anwendungen ihren Raumbedarf auf abstrakte Weise formulieren, den unsere Softwaresysteme anschließend auf den verfügbaren physischen Raum abbilden. Dadurch ermöglichen wir Real-Walking-Anwendungen Räume mit unterschiedlichen Größen und Formen und Räume, die unterschiedliche physische Objekte enthalten, zu nutzen. Wir ermöglichen auch die zeitgleiche Nutzung desselben Raums durch mehrere Nutzer verschiedener Real-Walking-Anwendungen. Unsere Systeme erreichen dieses Resultat durch eine Repräsentation von Real-Walking-Erfahrungen, die unabhängig sind vom gegebenen Trackingvolumen – eine Graphenstruktur, die die räumlichen und logischen Beziehungen zwischen virtuellen Orten, den virtuellen Elementen innerhalb dieser Orte, und Benutzerinteraktionen mit diesen Elementen, ausdrückt. Bei der Instanziierung der Anwendung in einem bestimmten physischen Raum wird diese Graphenstruktur und ein Constraint Solver verwendet, um eine individuelle Abbildung der virtuellen Elemente auf den physischen Raum zu erreichen. Zur mehrmaligen Verwendung des Raumes teilt unser System virtuelle Szenen und überlagert virtuelle Geometrie. Das System leitet diese Aufteilung anhand eines hierarchischen Clusterings unserer virtuellen Objekte ab, die als Knoten unseres bi-partiten, gerichteten Graphen die logische Reihenfolge aller Ereignisse repräsentieren. Wir verwenden präemptives Scheduling zwischen den Anwendungen für die zeitgleiche Nutzung von physischem Raum. Wir stellen mehrere Anwendungsbeispiele vor, die Real-Walking ermöglichen – in physischen Räumen mit unterschiedlicher Größe und Form, die verschiedene physische Objekte oder weitere Nutzer enthalten. Wir sehen in unseren Systemen substantielles Potential. Heutige Virtual Reality-Anwendungen sind bisher zwar so konzipiert, dass sie auf einem beliebigen Trackingvolumen betrieben werden können, aber aus kommerzieller Notwendigkeit kein Real-Walking beinhalten. Damit entgeht Entwicklern die Gelegenheit eine höhere Immersion herzustellen. Indem wir es ermöglichen, Real-Walking auf jedes Trackingvolumen zu bringen, geben wir Entwicklern die Möglichkeit Real-Walking zu ihren Nutzern zu bringen. N2 - Die eigentlichen Kosten für Virtual Reality Anwendungen entstehen nicht primär durch die erforderliche Hardware, sondern durch die Nutzung von physischem Raum, da die eins-zu-eins Abbildung von physischem auf virtuellem Raum die immersivste Art von Navigation ermöglicht. Dieses als „Real-Walking“ bezeichnete Erlebnis erfordert hinsichtlich Größe und Form eine Entsprechung von physischem Raum und virtueller Welt. Resultierend daraus können Real-Walking-Anwendungen nicht an Orten angewandt werden, für die sie nicht entwickelt wurden. Um den Bedarf an physischem Raum zu reduzieren, lassen Entwickler von Virtual Reality-Anwendungen ihre Nutzer auf verschiedene Arten navigieren, etwa mit Hilfe eines Laufbandes, verfälschten Abbildungen von physischem zu virtuellem Raum, Handheld-Controllern oder gestenbasierten Techniken. All diese Lösungen reduzieren zwar den Bedarf an physischem Raum, erreichen jedoch nicht denselben Grad an Immersion, den Real-Walking bietet. Unser Ansatz zielt darauf, physischen Raum zu virtualisieren: Anstatt auf den physischen Raum direkt zuzugreifen, lassen wir Anwendungen ihren Raumbedarf auf abstrakte Weise formulieren, den unsere Softwaresysteme anschließend auf den verfügbaren physischen Raum abbilden. Dadurch ermöglichen wir Real-Walking-Anwendungen Räume mit unterschiedlichen Größen und Formen und Räume, die unterschiedliche physische Objekte enthalten, zu nutzen. Wir ermöglichen auch die zeitgleiche Nutzung desselben Raums durch mehrere Nutzer verschiedener Real-Walking-Anwendungen. Unsere Systeme erreichen dieses Resultat durch eine Repräsentation von Real-Walking-Erfahrungen, die unabhängig sind vom gegebenen Trackingvolumen – eine Graphenstruktur, die die räumlichen und logischen Beziehungen zwischen virtuellen Orten, den virtuellen Elementen innerhalb dieser Orte, und Benutzerinteraktionen mit diesen Elementen, ausdrückt. Bei der Instanziierung der Anwendung in einem bestimmten physischen Raum wird diese Graphenstruktur und ein Constraint Solver verwendet, um eine individuelle Abbildung der virtuellen Elemente auf den physischen Raum zu erreichen. Zur mehrmaligen Verwendung des Raumes teilt unser System virtuelle Szenen und überlagert virtuelle Geometrie. Das System leitet diese Aufteilung anhand eines hierarchischen Clusterings unserer virtuellen Objekte ab, die als Knoten unseres bi-partiten, gerichteten Graphen die logische Reihenfolge aller Ereignisse repräsentieren. Wir verwenden präemptives Scheduling zwischen den Anwendungen für die zeitgleiche Nutzung von physischem Raum. Wir stellen mehrere Anwendungsbeispiele vor, die Real-Walking ermöglichen – in physischen Räumen mit unterschiedlicher Größe und Form, die verschiedene physische Objekte oder weitere Nutzer enthalten. Wir sehen in unseren Systemen substantielles Potential. Heutige Virtual Reality-Anwendungen sind bisher zwar so konzipiert, dass sie auf einem beliebigen Trackingvolumen betrieben werden können, aber aus kommerzieller Notwendigkeit kein Real-Walking beinhalten. Damit entgeht Entwicklern die Gelegenheit eine höhere Immersion herzustellen. Indem wir es ermöglichen, Real-Walking auf jedes Trackingvolumen zu bringen, geben wir Entwicklern die Möglichkeit Real-Walking zu ihren Nutzern zu bringen. KW - Human Computer Interaction KW - Mixed Reality KW - Walking KW - Real Walking KW - Motion Mapping KW - Storytelling KW - Mensch Computer Interaktion KW - Mixed Reality KW - Walking KW - Real Walking KW - Motion Mapping KW - Storytelling Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-520332 ER - TY - THES A1 - Berg, Gregor T1 - Virtual prototypes for the model-based elicitation and validation of collaborative scenarios T1 - Virtuelle Prototypen für die Modellbasierte Erhebung und Validierung kollaborativer Szenarien N2 - Requirements engineers have to elicit, document, and validate how stakeholders act and interact to achieve their common goals in collaborative scenarios. Only after gathering all information concerning who interacts with whom to do what and why, can a software system be designed and realized which supports the stakeholders to do their work. To capture and structure requirements of different (groups of) stakeholders, scenario-based approaches have been widely used and investigated. Still, the elicitation and validation of requirements covering collaborative scenarios remains complicated, since the required information is highly intertwined, fragmented, and distributed over several stakeholders. Hence, it can only be elicited and validated collaboratively. In times of globally distributed companies, scheduling and conducting workshops with groups of stakeholders is usually not feasible due to budget and time constraints. Talking to individual stakeholders, on the other hand, is feasible but leads to fragmented and incomplete stakeholder scenarios. Going back and forth between different individual stakeholders to resolve this fragmentation and explore uncovered alternatives is an error-prone, time-consuming, and expensive task for the requirements engineers. While formal modeling methods can be employed to automatically check and ensure consistency of stakeholder scenarios, such methods introduce additional overhead since their formal notations have to be explained in each interaction between stakeholders and requirements engineers. Tangible prototypes as they are used in other disciplines such as design, on the other hand, allow designers to feasibly validate and iterate concepts and requirements with stakeholders. This thesis proposes a model-based approach for prototyping formal behavioral specifications of stakeholders who are involved in collaborative scenarios. By simulating and animating such specifications in a remote domain-specific visualization, stakeholders can experience and validate the scenarios captured so far, i.e., how other stakeholders act and react. This interactive scenario simulation is referred to as a model-based virtual prototype. Moreover, through observing how stakeholders interact with a virtual prototype of their collaborative scenarios, formal behavioral specifications can be automatically derived which complete the otherwise fragmented scenarios. This, in turn, enables requirements engineers to elicit and validate collaborative scenarios in individual stakeholder sessions – decoupled, since stakeholders can participate remotely and are not forced to be available for a joint session at the same time. This thesis discusses and evaluates the feasibility, understandability, and modifiability of model-based virtual prototypes. Similarly to how physical prototypes are perceived, the presented approach brings behavioral models closer to being tangible for stakeholders and, moreover, combines the advantages of joint stakeholder sessions and decoupled sessions. N2 - Anforderungsingenieure erheben, dokumentieren und validieren wie Bedarfsträger in einzelnen und gemeinsamen Aktivitäten die Ziele ihrer kollaborativen Szenarios erreichen. Auf Grundlage von Angaben darüber, wer warum mit wem zusammen was erledigt, kann anschließend ein Softwaresystem spezifiziert und umgesetzt werden, welches die Bedarfsträger bei der Durchführung ihrer Abläufe unterstützt. Um Anforderungen verschiedener (Gruppen von) Bedarfsträger zu erfassen und zu strukturieren, werden szenariobasierte Ansätze genutzt und erforscht. Die Erhebung und Validierung von Anforderungen, die kollaborative Szenarios abdecken, ist dennoch kompliziert, da derartige Informationen hochgradig verknüpft, fragmentiert und über mehrere Bedarfsträger verteilt sind, wodurch sie nur in Gruppensitzungen effizient erhoben und validiert werden können. In Zeiten global verteilter Firmen ist die Planung und Durchführung solcher Workshops mit Gruppen von Bedarfsträgern nur selten praktikabel. Mit einzelnen Bedarfsträgern zu sprechen ist hingegen oft realisierbar, führt aber zu fragmentierten, unvollständigen Szenariobeschreibungen. Durch eine Vielzahl von Einzelgesprächen mit wechselnden Bedarfsträgern kann diese Fragmentierung aufgelöst werden – dies ist aber eine fehleranfällige und zeitaufwändige Aufgabe. Zwar bieten formale Modellierungsmethoden z.B. automatische Konsistenzchecks für Szenarios, doch führen derartige Methoden zu Mehraufwand in allen Gesprächen mit Bedarfsträgern, da diesen die verwendeten formalen Notationen jedes Mal erläutert werden müssen. Handfeste Prototypen, wie sie in anderen Disziplinen eingesetzt werden, ermöglichen es Designern, ihre Konzepte und erhobenen Anforderungen ohne viel Aufwand mit Bedarfsträgern zu validieren und zu iterieren. In dieser Dissertation wird ein modellbasierter Generierungsansatz vorgeschlagen, der kollaborative Szenarios prototypisch auf Grundlage von formalen Verhaltensmodellen für die beteiligten Bedarfsträger darstellt. Durch die Simulation dieses Verhaltens und dessen Animation innerhalb einer webbasierten, domänenspezifischen Visualisierung, können Bedarfsträger diese Modelle erleben und die bisher erfassten Szenarios validieren. Eine derartige interaktive Szenariosimulation wird als modellbasierter virtueller Prototyp bezeichnet. Basierend auf den Interaktionen zwischen Bedarfsträgern und einem virtuellen Prototypen ihrer Szenarios können zudem formale Verhaltensspezifikationen automatisch abgeleitet werden, die wiederum die fragmentierten kollaborativen Szenarios vervollständigen. Dies ermöglicht es den Anforderungsingenieuren, die kollaborativen Szenarios in individuellen Sitzungen mit einzelnen Bedarfsträgern zu erheben und zu validieren – entkoppelt voneinander, da Bedarfsträger webbasiert teilnehmen können und dabei nicht darauf angewiesen sind, dass andere Bedarfsträger ebenfalls in der gleichen Sitzung teilnehmen. Diese Dissertation diskutiert und evaluiert die Machbarkeit, Verständlichkeit sowie die Änderbarkeit der modellbasierten virtuellen Prototypen. Auf die gleiche Art wie physikalische Prototypen wahrgenommen werden, erlaubt es der vorgestellte Ansatz, Verhaltensmodelle für Bedarfsträger erlebbar zu machen und so die Vorteile von Gruppensitzungen mit denen entkoppelter Sitzungen zu verbinden. KW - requirements engineering KW - behavioral specification KW - interactive simulation KW - model-based prototyping KW - rapid prototyping Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69729 ER -