@phdthesis{Loewinger2010, author = {L{\"o}winger, Maria}, title = {Sulforaphan und Selen : Einfluss auf Phase II Enzyme und Selenoproteine sowie deren Effekt auf die entz{\"u}ndungsvermittelte Dickdarmkanzerogenese}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-51862}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Das ITC SFN und der Mikron{\"a}hrstoff Se sind bekannt als chemopr{\"a}ventive Inhaltsstoffe von Gem{\"u}se der Brassica-Familie, welcher auch Brokkoli angeh{\"o}rt. Die Wirkungen von sowohl SFN als auch Se beruhen auf zahlreichen verschiedenen Mechanismen. Es existieren jedoch Schnittstellen, an welchen Interaktionen beider Substanzen m{\"o}glich sind. Basierend auf diesem Wissen wurden in dieser Arbeit Wechselwirkungen zwischen SFN und Se auf die Aktivit{\"a}t sowie Expression von Phase II Enzymen und Selenoproteinen untersucht. Der Einfluss der Kombination von SFN und Se auf die unter physiologischen Bedingungen stattfindende Proliferation und Apoptose war ebenso Gegenstand der Arbeit wie die Modulation von Entz{\"u}ndungsprozessen sowie der Tumorentstehung w{\"a}hrend der entz{\"u}ndungsverst{\"a}rkten Colonkanzerogenese im Mausmodell. Das hinsichtlich seiner Wirksamkeit mit aus GRA hydrolysiertem SFN zun{\"a}chst als vergleichbar befundene synthetische SFN wurde f{\"u}r die Untersuchung im AOM/DSS-induzierten Colontumormodell gew{\"a}hlt und in Kombination mit 3 verschiedenen Selendi{\"a}ten verabreicht. Der Einfluss von SFN und Se auf Phase II Enzyme und Selenoproteine entlang des GIT war organabh{\"a}ngig und nach 4 Wochen geringer als nach 7 Tagen. Die schw{\"a}chere Induktion deutet auf eine Anpassung des Organismus hin. Ein SFN-vermittelter Effekt auf NQO1 war im Selenmangel am deutlichsten. Die Aktivit{\"a}t des Selenoproteins TrxR wurde hingegen erst bei ausreichender Selenversorgung durch SFN beeinflusst. Die als Nrf2-Zielgen bekannte und in der Hierarchie der Selenoproteine einen hohen Rang einnehmende GPx2 konnte in bestimmten Organen bereits unter selenarmen Bedingungen durch SFN induziert werden. Eine {\"U}berexpression des Enzyms war jedoch nicht m{\"o}glich. SFN steigerte, unabh{\"a}ngig vom Selenstatus, im oberen Abschnitt des GIT und im Colon die Aktivit{\"a}t der GST. Eine Induktion des eigenen Metabolismus w{\"a}re somit denkbar. Im Falle eines Mangels an GPx2 wurde GPx1 bei hinreichender Selenversorgung st{\"a}rker exprimiert, allerdings konnte sie die Funktion von GPx2 nicht v{\"o}llig erset-zen. Im Selenmangel kann die Aktivit{\"a}tssteigerung der TrxR im D{\"u}nndarm, dem Ab-schnitt der Selenabsorption, als ein Versuch der GPx2-Kompensation angesehen werden. SFN war nicht in der Lage, {\"u}ber eine Aktivierung des Nrf2/ARE-Signalweges kompensatorische Effekte zu induzieren. Apoptotische Prozesse wurden unter physiologischen Bedingungen nur marginal durch SFN und Se moduliert. Das elektrophile ITC konnte lediglich im Selenmangel Apoptose im luminalen Bereich der Colonkrypten induzieren. Die durch supranutritive Selenkonzentration induzierte Apoptose im Kryptengrund wurde nicht durch SFN beeinflusst. Einer bei Abwesenheit der GPx2 erh{\"o}hten Apoptoserate im Kryptengrund wirkte SFN bei ad{\"a}quater Selenversorgung entgegen, war indessen proapoptotisch unter selendefizienten Konditionen. Der Einfluss von SFN auf die Entz{\"u}ndung war deutlich abh{\"a}ngig vom Selenstatus. W{\"a}hrend SFN im Selenmangel anscheinend prooxidative Prozesse induzierte und die Entz{\"u}ndungssymptome verschlimmerte, wirkte es unter ad{\"a}quatem Selenstatus an-tiinflammatorisch. Den vergleichsweise milden Grad der Entz{\"u}ndung im selensupplementierten Status konnte SFN nicht zus{\"a}tzlich beeinflussen. SFN ver{\"a}nderte die Inzi-denz colorektaler Tumore nicht. Ein, die Tumorinitiation blockierender SFN-Effekt durch direkte Hemmung der metabolischen Aktivierung des Prokanzerogens im selenad{\"a}quaten Zustand scheint offensichtlich. Eine {\"U}berversorgung mit Se kann protektiv im Hinblick auf Entz{\"u}ndung oder Colonkanzerogenese sein, jedoch bewirkt SFN keinen zus{\"a}tzlichen Schutz. Kombinationseffekte von SFN und Se in Bezug auf Phase II Enzyme, Selenoproteine und Apoptose sowie die entz{\"u}ndungsverst{\"a}rkte Colonkanzerogenese sind nicht eindeutiger Natur und k{\"o}nnen, abh{\"a}ngig vom Endpunkt, synergistische oder antagonistische Z{\"u}ge aufweisen. Eine bei Selendefizienz deutlichere Wirkung von SFN kann mit Hilfe der gesteigerten Aktivierung von Nrf2 erkl{\"a}rt werden, dies muss jedoch nicht von Vorteil sein. Bei ad{\"a}quater Selenversorgung kann SFN kurzfristig antiinflammatorische und antikanzerogene Prozesse induzieren. Von einer l{\"a}ngerfristigen st{\"a}ndigen SFN-Aufnahme in Form von GRA-reichen Brassicacea ist jedoch abzuraten, da von einer Adaptation auszugehen ist. Die Wirkung von SFN innerhalb der komplexen Pflanzenmatrix bleibt Gegenstand zuk{\"u}nftiger Untersuchungen.}, language = {de} } @phdthesis{Tronci2010, author = {Tronci, Giuseppe}, title = {Synthesis, characterization, and biological evaluation of gelatin-based scaffolds}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-49727}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {This work presents the development of entropy-elastic gelatin based networks in the form of films or scaffolds. The materials have good prospects for biomedical applications, especially in the context of bone regeneration. Entropy-elastic gelatin based hydrogel films with varying crosslinking densities were prepared with tailored mechanical properties. Gelatin was covalently crosslinked above its sol gel transition, which suppressed the gelatin chain helicity. Hexamethylene diisocyanate (HDI) or ethyl ester lysine diisocyanate (LDI) were applied as chemical crosslinkers, and the reaction was conducted either in dimethyl sulfoxide (DMSO) or water. Amorphous films were prepared as measured by Wide Angle X-ray Scattering (WAXS), with tailorable degrees of swelling (Q: 300-800 vol. \%) and wet state Young's modulus (E: 70 740 kPa). Model reactions showed that the crosslinking reaction resulted in a combination of direct crosslinks (3-13 mol.-\%), grafting (5-40 mol.-\%), and blending of oligoureas (16-67 mol.-\%). The knowledge gained with this bulk material was transferred to the integrated process of foaming and crosslinking to obtain porous 3-D gelatin-based scaffolds. For this purpose, a gelatin solution was foamed in the presence of a surfactant, Saponin, and the resulting foam was fixed by chemical crosslinking with a diisocyanate. The amorphous crosslinked scaffolds were synthesized with varied gelatin and HDI concentrations, and analyzed in the dry state by micro computed tomography (µCT, porosity: 65±11-73±14 vol.-\%), and scanning electron microscopy (SEM, pore size: 117±28-166±32 µm). Subsequently, the work focused on the characterization of the gelatin scaffolds in conditions relevant to biomedical applications. Scaffolds showed high water uptake (H: 630-1680 wt.-\%) with minimal changes in outer dimension. Since a decreased scaffold pore size (115±47-130±49 µm) was revealed using confocal laser scanning microscopy (CLSM) upon wetting, the form stability could be explained. Shape recoverability was observed after removal of stress when compressing wet scaffolds, while dry scaffolds maintained the compressed shape. This was explained by a reduction of the glass transition temperature upon equilibration with water (dynamic mechanical analysis at varied temperature (DMTA)). The composition dependent compression moduli (Ec: 10 50 kPa) were comparable to the bulk micromechanical Young's moduli, which were measured by atomic force microscopy (AFM). The hydrolytic degradation profile could be adjusted, and a controlled decrease of mechanical properties was observed. Partially-degraded scaffolds displayed an increase of pore size. This was likely due to the pore wall disintegration during degradation, which caused the pores to merge. The scaffold cytotoxicity and immunologic responses were analyzed. The porous scaffolds enabled proliferation of human dermal fibroblasts within the implants (up to 90 µm depth). Furthermore, indirect eluate tests were carried out with L929 cells to quantify the material cytotoxic response. Here, the effect of the sterilization method (Ethylene oxide sterilization), crosslinker, and surfactant were analyzed. Fully cytocompatible scaffolds were obtained by using LDI as crosslinker and PEO40 PPO20-PEO40 as surfactant. These investigations were accompanied by a study of the endotoxin material contamination. The formation of medical-grade materials was successfully obtained (<0.5 EU/mL) by using low-endotoxin gelatin and performing all synthetic steps in a laminar flow hood.}, language = {en} } @phdthesis{Mueller2010, author = {M{\"u}ller, Anja}, title = {Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-57767}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Im Zentrum der Arbeit steht die Frage, wie sechsj{\"a}hrige monolingual deutsche Kinder S{\"a}tze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberfl{\"a}chenposition der Fokuspartikel auf das Satzverst{\"a}ndnis hat und ob die kontextuelle Einbettung der nur-S{\"a}tze zu einer zielsprachlichen Interpretation f{\"u}hrt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die pr{\"a}sentierten nur-S{\"a}tze zielsprachlich interpretierten, wenn diese in einen ad{\"a}quaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von S{\"a}tzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-S{\"a}tze f{\"u}r die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies f{\"u}hrt im Fall der S{\"a}tze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repr{\"a}sentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell f{\"u}r das Verstehen von S{\"a}tzen mit der Fokuspartikel nur entworfen und diskutiert.}, language = {de} } @phdthesis{Blessmann2010, author = {Bleßmann, Daniela}, title = {Der Einfluss der Dynamik auf die stratosph{\"a}rische Ozonvariabilit{\"a}t {\"u}ber der Arktis im Fr{\"u}hwinter}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-51394}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Der fr{\"u}hwinterliche Ozongehalt ist ein Indikator f{\"u}r den Ozongehalt im Sp{\"a}twinter/Fr{\"u}hjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivit{\"a}t von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilit{\"a}t weitestgehend auf dynamische Prozesse w{\"a}hrend der Wirbelbildungsphase des arktischen Polarwirbels zur{\"u}ckgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem fr{\"u}h- und sp{\"a}twinterlichen Ozongehalt bez{\"u}glich Dynamik und Chemie aufgezeigt. F{\"u}r die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die {\"u}ber die Fl{\"a}che (45-75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fl{\"a}che zeigt eine Verbindung zwischen der fr{\"u}hwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur f{\"u}r die untere Stratosph{\"a}re g{\"u}ltig, da die Vertikalkomponente die sich innerhalb der Stratosph{\"a}re {\"a}ndernden Wellenausbreitungsbedingungen nicht erfasst. F{\"u}r eine verbesserte H{\"o}hendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Gr{\"o}ße definiert. Diese neue Gr{\"o}ße verbindet die Wellenaktivit{\"a}t w{\"a}hrend der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung {\"u}ber die Breite. Eine verst{\"a}rkte Wellenaktivit{\"a}t f{\"u}hrt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Fr{\"u}hwinter zerst{\"o}ren chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablit{\"a}t, die durch dynamische Prozesse w{\"a}hrend der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter erm{\"o}glicht eine Absch{\"a}tzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden f{\"u}r den Winter 1999-2000 Modelll{\"a}ufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen {\"u}ber den Erhalt der k{\"u}nstlichen Ozonvariabilit{\"a}t hinsichtlich Zeit, H{\"o}he und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilit{\"a}t w{\"a}hrend der Wirbelbildungsphase l{\"a}nger im Inneren als im {\"A}ußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilit{\"a}t. In darunterliegenden H{\"o}henbereichen ist der Anteil an der urspr{\"u}nglichen St{\"o}rung groß, bis zu 90\% auf der 450K. Innerhalb dieses H{\"o}henbereiches {\"u}ben die dynamischen Prozesse w{\"a}hrend der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus.}, language = {de} } @phdthesis{Jamil2010, author = {Jamil, Abdlhamed}, title = {Fernerkundung und GIS zur Erfassung, Modellierung und Visualisierung orientalischer Stadtstrukturen : das Beispiel Sanaa (Jemen)}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-50200}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockeng{\"u}rtel mittels hochaufl{\"o}sender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden k{\"o}nnen. Daten von hochaufl{\"o}senden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Geb{\"a}ude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen k{\"o}nnen zur Erfassung von Urbanisierungsprozessen (Stadt- und Bev{\"o}lkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung f{\"u}r touristische Anwendungen, f{\"u}r die Stadtplanung, f{\"u}r L{\"a}rmanalysen oder f{\"u}r die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Geb{\"a}udedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Geb{\"a}ude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Gel{\"a}ndedaten, erg{\"a}nzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und f{\"u}r jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgef{\"u}hrt wurde. Zus{\"a}tzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Fl{\"a}chen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schw{\"a}chen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Gel{\"a}ndemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Geb{\"a}ude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort f{\"u}r die Klassifikation herrschenden ung{\"u}nstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den h{\"o}chsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse geh{\"o}rende Fl{\"a}che besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit k{\"u}rzer und die Speicherkapazit{\"a}t geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-gef{\"u}hrten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Geb{\"a}ude m{\"o}glich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enth{\"a}lt. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer r{\"a}umlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu z{\"a}hlen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die f{\"u}r Sanaa typischen Hochh{\"a}user werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere st{\"a}dtische R{\"a}ume des Typus orientalische Stadt angewendet werden kann.}, language = {de} } @phdthesis{Blum2010, author = {Blum, Niklas}, title = {Formalization of a converged internet and telecommunications service environment}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-51146}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {The programmable network envisioned in the 1990s within standardization and research for the Intelligent Network is currently coming into reality using IPbased Next Generation Networks (NGN) and applying Service-Oriented Architecture (SOA) principles for service creation, execution, and hosting. SOA is the foundation for both next-generation telecommunications and middleware architectures, which are rapidly converging on top of commodity transport services. Services such as triple/quadruple play, multimedia messaging, and presence are enabled by the emerging service-oriented IPMultimedia Subsystem (IMS), and allow telecommunications service providers to maintain, if not improve, their position in the marketplace. SOA becomes the de facto standard in next-generation middleware systems as the system model of choice to interconnect service consumers and providers within and between enterprises. We leverage previous research activities in overlay networking technologies along with recent advances in network abstraction, service exposure, and service creation to develop a paradigm for a service environment providing converged Internet and Telecommunications services that we call Service Broker. Such a Service Broker provides mechanisms to combine and mediate between different service paradigms from the two domains Internet/WWW and telecommunications. Furthermore, it enables the composition of services across these domains and is capable of defining and applying temporal constraints during creation and execution time. By adding network-awareness into the service fabric, such a Service Broker may also act as a next generation network-to-service element allowing the composition of crossdomain and cross-layer network and service resources. The contribution of this research is threefold: first, we analyze and classify principles and technologies from Information Technologies (IT) and telecommunications to identify and discuss issues allowing cross-domain composition in a converging service layer. Second, we discuss service composition methods allowing the creation of converged services on an abstract level; in particular, we present a formalized method for model-checking of such compositions. Finally, we propose a Service Broker architecture converging Internet and Telecom services. This environment enables cross-domain feature interaction in services through formalized obligation policies acting as constraints during service discovery, creation, and execution time.}, language = {en} } @phdthesis{Kummer2010, author = {Kummer, Michael}, title = {Die Fußballclubs Rot-Weiß Erfurt und Carl Zeiss Jena und ihre Vorg{\"a}nger in der DDR : ein Vergleich ihrer Bedingungen}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-51065}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Der SC Motor/FC Carl Zeiss Jena war seit Ende der 50-er Jahre bis in die 80-er Jahre hinein ein vom DFV der DDR und vom DTSB immer wieder benannter und best{\"a}tigter Schwerpunktclub innerhalb der sogenannten zivilen Clubs. Der SC Turbine/FC Rot-Weiß Erfurt konnte diesen Status innerhalb des Fußballverbands dagegen nie erreichen. Die zentrale Frage dieser Dissertation nach den spezifischen Bedingungsgef{\"u}gen des zivilen Schwerpunktclubs FC Carl Zeiss Jena (und Vorg{\"a}nger) und des zivilen Nichtschwerpunktclubs FC Rot-Weiß Erfurt (und Vorg{\"a}nger) im DDR-Fußballsystem ergab sich aus dieser unterschiedlichen Privilegierung und den ungleichen Erfolgsbilanzen dieser beiden Clubs. Die Hypothese der komparativ angelegten Fallstudie vermutete einen unmittelbaren Zusammenhang zwischen diesen deutlich sichtbaren Erfolgsunterschieden der beiden Mannschaften in der DDR und den erfolgten Schwerpunktfestlegungen. Zus{\"a}tzlich konnte vermutet werden, dass ein betr{\"a}chtlicher Anteil an den Jenaer Erfolgen auf die besonders starke Unterst{\"u}tzung des wirtschaftlich m{\"a}chtigen VEB Carl Zeiss Jena zur{\"u}ckzuf{\"u}hren war. Um diesen Zusammenh{\"a}ngen nachzugehen, fragte der Autor nach den konkreten Bevorzugungen des Jenaer Schwerpunktclubs und den Benachteiligungen des Erfurter Nichtschwerpunktclubs und nach den spezifischen Bedingungen und Handlungsspielr{\"a}umen der beiden Th{\"u}ringer Mannschaften in der DDR. Daraus ergaben sich eine Reihe von detaillierten, auf einen Vergleich der verschiedenen Bedingungen in Erfurt und in Jena hin orientierte, Fragen, welche in der vorliegenden Untersuchung detailliert beantwortet werden: Wie sah die besondere F{\"o}rderung des DFV bzw. des DTSB f{\"u}r einen Schwerpunktclub wie Jena {\"u}berhaupt aus? Wer nahm Einfluss auf die Clubs, von wem waren diese abh{\"a}ngig, wer f{\"o}rderte sie durch welche Leistungen? Wie wurden diese Beschl{\"u}sse vor Ort umgesetzt? Wer waren die Tr{\"a}gerbetriebe und in welchem Maße und wodurch engagierten sich diese f{\"u}r den Fußball in Erfurt und Jena? Wie kamen die h{\"a}ufigen Wechsel der besten Spieler Erfurts nach Jena zustande? Warum war die Richtung dieser Wechsel insgesamt einseitig in Richtung Jena? Welche finanziellen, materiellen und sozialen Bedingungen konnten den Spielern in Jena und Erfurt geboten werden? Die vorliegenden Ergebnisse dieser erstmals f{\"u}r die zivilen Clubs auf der Mikroperspektive angelegten systematischen Untersuchung best{\"a}tigen das bereits von Hans Joachim Teichler als grundlegend f{\"u}r den DDR-Fußball beschriebene Konfliktmuster des „Fußball-Lokalpatriotismus versus Parteir{\"a}son". Eigenm{\"a}chtige Handlungen vieler Betriebsleiter und zahlreicher Partei- und Gewerkschaftsfunktion{\"a}re in den Tr{\"a}gerbetrieben konnten beispielsweise in Erfurt bei der eigenm{\"a}chtigen Erh{\"o}hung der Aufnahmezahlen von Fußballern an die KJS Erfurt oder in Jena bei der Anstellung der Fußballer im Zeisswerk nachgewiesen werden. Das am sowjetischen Vorbild orientierte Sportsystem der DDR mit seinen engen Bindungen an die Tr{\"a}gerbetriebe provozierte geradezu verdeckte Zuwendungen der Betriebe, die {\"u}ber die Clubs an die Spieler weitergereicht wurden. F{\"u}r die zentralen Instanzen des DDR-Fußballs war das ein Dauerproblem, weil sich damit ein Großteil der Vorg{\"a}nge vor Ort der Steuerung entzog. Wie in der vorliegenden Arbeit beschrieben wird, war genau dies jedoch der Schl{\"u}ssel f{\"u}r den Erfolg des SC Motor/FC Carl Zeiss Jena vom Ende der 50-er bis in den Anfang der 80-er Jahre bzw. f{\"u}r den vergleichsweisen Misserfolg des SC Turbine/FC Rot-Weiß Erfurt im gleichen Zeitraum. Dass letztlich die finanziellen, materiellen und sozialen M{\"o}glichkeiten die entscheidende Gr{\"u}nde f{\"u}r die Spieler waren, zu einem anderen Club oder einer BSG zu wechseln, mithin demnach Marktmechanismen, und hier in erster Linie der Grund f{\"u}r die St{\"a}rke des SC Motor/FC Carl Zeiss Jena zu suchen ist, ist eine zentrale Erkenntnis dieser Arbeit.}, language = {de} } @phdthesis{Shirzaei2010, author = {Shirzaei, Manoochehr}, title = {Crustal deformation source monitoring using advanced InSAR time series and time dependent inverse modeling}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-50774}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Crustal deformation can be the result of volcanic and tectonic activity such as fault dislocation and magma intrusion. The crustal deformation may precede and/or succeed the earthquake occurrence and eruption. Mitigating the associated hazard, continuous monitoring of the crustal deformation accordingly has become an important task for geo-observatories and fast response systems. Due to highly non-linear behavior of the crustal deformation fields in time and space, which are not always measurable using conventional geodetic methods (e.g., Leveling), innovative techniques of monitoring and analysis are required. In this thesis I describe novel methods to improve the ability for precise and accurate mapping the spatiotemporal surface deformation field using multi acquisitions of satellite radar data. Furthermore, to better understand the source of such spatiotemporal deformation fields, I present novel static and time dependent model inversion approaches. Almost any interferograms include areas where the signal decorrelates and is distorted by atmospheric delay. In this thesis I detail new analysis methods to reduce the limitations of conventional InSAR, by combining the benefits of advanced InSAR methods such as the permanent scatterer InSAR (PSI) and the small baseline subsets (SBAS) with a wavelet based data filtering scheme. This novel InSAR time series methodology is applied, for instance, to monitor the non-linear deformation processes at Hawaii Island. The radar phase change at Hawaii is found to be due to intrusions, eruptions, earthquakes and flank movement processes and superimposed by significant environmental artifacts (e.g., atmospheric). The deformation field, I obtained using the new InSAR analysis method, is in good agreement with continuous GPS data. This provides an accurate spatiotemporal deformation field at Hawaii, which allows time dependent source modeling. Conventional source modeling methods usually deal with static deformation field, while retrieving the dynamics of the source requires more sophisticated time dependent optimization approaches. This problem I address by combining Monte Carlo based optimization approaches with a Kalman Filter, which provides the model parameters of the deformation source consistent in time. I found there are numerous deformation sources at Hawaii Island which are spatiotemporally interacting, such as volcano inflation is associated to changes in the rifting behavior, and temporally linked to silent earthquakes. I applied these new methods to other tectonic and volcanic terrains, most of which revealing the importance of associated or coupled deformation sources. The findings are 1) the relation between deep and shallow hydrothermal and magmatic sources underneath the Campi Flegrei volcano, 2) gravity-driven deformation at Damavand volcano, 3) fault interaction associated with the 2010 Haiti earthquake, 4) independent block wise flank motion at the Hilina Fault system, Kilauea, and 5) interaction between salt diapir and the 2005 Qeshm earthquake in southern Iran. This thesis, written in cumulative form including 9 manuscripts published or under review in peer reviewed journals, improves the techniques for InSAR time series analysis and source modeling and shows the mutual dependence between adjacent deformation sources. These findings allow more realistic estimation of the hazard associated with complex volcanic and tectonic systems.}, language = {en} } @phdthesis{Brauer2010, author = {Brauer, Falk}, title = {Extraktion und Identifikation von Entit{\"a}ten in Textdaten im Umfeld der Enterprise Search}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-51409}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Die automatische Informationsextraktion (IE) aus unstrukturierten Texten erm{\"o}glicht v{\"o}llig neue Wege, auf relevante Informationen zuzugreifen und deren Inhalte zu analysieren, die weit {\"u}ber bisherige Verfahren zur Stichwort-basierten Dokumentsuche hinausgehen. Die Entwicklung von Programmen zur Extraktion von maschinenlesbaren Daten aus Texten erfordert jedoch nach wie vor die Entwicklung von dom{\"a}nenspezifischen Extraktionsprogrammen. Insbesondere im Bereich der Enterprise Search (der Informationssuche im Unternehmensumfeld), in dem eine große Menge von heterogenen Dokumenttypen existiert, ist es oft notwendig ad-hoc Programm-module zur Extraktion von gesch{\"a}ftsrelevanten Entit{\"a}ten zu entwickeln, die mit generischen Modulen in monolithischen IE-Systemen kombiniert werden. Dieser Umstand ist insbesondere kritisch, da potentiell f{\"u}r jeden einzelnen Anwendungsfall ein von Grund auf neues IE-System entwickelt werden muss. Die vorliegende Dissertation untersucht die effiziente Entwicklung und Ausf{\"u}hrung von IE-Systemen im Kontext der Enterprise Search und effektive Methoden zur Ausnutzung bekannter strukturierter Daten im Unternehmenskontext f{\"u}r die Extraktion und Identifikation von gesch{\"a}ftsrelevanten Entit{\"a}ten in Doku-menten. Grundlage der Arbeit ist eine neuartige Plattform zur Komposition von IE-Systemen auf Basis der Beschreibung des Datenflusses zwischen generischen und anwendungsspezifischen IE-Modulen. Die Plattform unterst{\"u}tzt insbesondere die Entwicklung und Wiederverwendung von generischen IE-Modulen und zeichnet sich durch eine h{\"o}here Flexibilit{\"a}t und Ausdrucksm{\"a}chtigkeit im Vergleich zu vorherigen Methoden aus. Ein in der Dissertation entwickeltes Verfahren zur Dokumentverarbeitung interpretiert den Daten-austausch zwischen IE-Modulen als Datenstr{\"o}me und erm{\"o}glicht damit eine weitgehende Parallelisierung von einzelnen Modulen. Die autonome Ausf{\"u}hrung der Module f{\"u}hrt zu einer wesentlichen Beschleu-nigung der Verarbeitung von Einzeldokumenten und verbesserten Antwortzeiten, z. B. f{\"u}r Extraktions-dienste. Bisherige Ans{\"a}tze untersuchen lediglich die Steigerung des durchschnittlichen Dokumenten-durchsatzes durch verteilte Ausf{\"u}hrung von Instanzen eines IE-Systems. Die Informationsextraktion im Kontext der Enterprise Search unterscheidet sich z. B. von der Extraktion aus dem World Wide Web dadurch, dass in der Regel strukturierte Referenzdaten z. B. in Form von Unternehmensdatenbanken oder Terminologien zur Verf{\"u}gung stehen, die oft auch die Beziehungen von Entit{\"a}ten beschreiben. Entit{\"a}ten im Unternehmensumfeld haben weiterhin bestimmte Charakteristiken: Eine Klasse von relevanten Entit{\"a}ten folgt bestimmten Bildungsvorschriften, die nicht immer bekannt sind, auf die aber mit Hilfe von bekannten Beispielentit{\"a}ten geschlossen werden kann, so dass unbekannte Entit{\"a}ten extrahiert werden k{\"o}nnen. Die Bezeichner der anderen Klasse von Entit{\"a}ten haben eher umschreibenden Charakter. Die korrespondierenden Umschreibungen in Texten k{\"o}nnen variieren, wodurch eine Identifikation derartiger Entit{\"a}ten oft erschwert wird. Zur effizienteren Entwicklung von IE-Systemen wird in der Dissertation ein Verfahren untersucht, das alleine anhand von Beispielentit{\"a}ten effektive Regul{\"a}re Ausdr{\"u}cke zur Extraktion von unbekannten Entit{\"a}ten erlernt und damit den manuellen Aufwand in derartigen Anwendungsf{\"a}llen minimiert. Verschiedene Generalisierungs- und Spezialisierungsheuristiken erkennen Muster auf verschiedenen Abstraktionsebenen und schaffen dadurch einen Ausgleich zwischen Genauigkeit und Vollst{\"a}ndigkeit bei der Extraktion. Bekannte Regellernverfahren im Bereich der Informationsextraktion unterst{\"u}tzen die beschriebenen Problemstellungen nicht, sondern ben{\"o}tigen einen (annotierten) Dokumentenkorpus. Eine Methode zur Identifikation von Entit{\"a}ten, die durch Graph-strukturierte Referenzdaten vordefiniert sind, wird als dritter Schwerpunkt untersucht. Es werden Verfahren konzipiert, welche {\"u}ber einen exakten Zeichenkettenvergleich zwischen Text und Referenzdatensatz hinausgehen und Teil{\"u}bereinstimmungen und Beziehungen zwischen Entit{\"a}ten zur Identifikation und Disambiguierung heranziehen. Das in der Arbeit vorgestellte Verfahren ist bisherigen Ans{\"a}tzen hinsichtlich der Genauigkeit und Vollst{\"a}ndigkeit bei der Identifikation {\"u}berlegen.}, language = {de} } @phdthesis{Strehmel2010, author = {Strehmel, Nadine}, title = {GC-TOF-MS basierte Analyse von niedermolekularen Prim{\"a}r- und Sekund{\"a}rmetaboliten agrarwirtschaftlich bedeutsamer Nutzpflanzen}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-51238}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Die Qualit{\"a}t von Nutzpflanzen ist von zahlreichen Einflussfaktoren wie beispielsweise Lagerbedingungen und Sorteneigenschaften abh{\"a}ngig. Um Qualit{\"a}tsm{\"a}ngel zu minimieren und Absatzchancen von Nutzpflanzen zu steigern sind umfangreiche Analysen hinsichtlich ihrer stofflichen Zusammensetzung notwendig. Chromatographische Techniken gekoppelt an ein Massenspektrometer und die Kernspinresonanzspektroskopie wurden daf{\"u}r bislang verwendet. In der vorliegenden Arbeit wurde ein Gaschromatograph an ein Flugzeitmassenspektrometer (GC-TOF-MS) gekoppelt, um physiologische Prozesse bzw. Eigenschaften (die Schwarzfleckigkeit, die Chipsbr{\"a}unung, das Physiologische Alter und die Keimhemmung) von Nutzpflanzen aufzukl{\"a}ren. Als Pflanzenmodell wurde daf{\"u}r die Kartoffelknolle verwendet. Dazu wurden neue analytische L{\"o}sungsans{\"a}tze entwickelt, die eine zielgerichtete Auswertung einer Vielzahl von Proben, die Etablierung einer umfangreichen Referenzspektrenbibliothek und die sichere Archivierung aller experimentellen Daten umfassen. Das Verfahren der Probenvorbereitung wurde soweit modifiziert, dass gering konzentrierte Substanzen mittels GC-TOF-MS analysiert werden k{\"o}nnen. Dadurch wurde das durch die Probenvorbereitung limitierte Substanzspektrum erweitert. Anhand dieser L{\"o}sungsans{\"a}tze wurden physiologisch relevante Stoffwechselprodukte identifiziert, welche indikativ (klassifizierend) bzw. pr{\"a}diktiv (vorhersagend) f{\"u}r die physiologischen Prozesse sind. F{\"u}r die Schwarzfleckigkeitsneigung und die Chipseignung wurde jeweils ein biochemisches Modell zur Vorhersage dieser Prozesse aufgestellt und auf eine Z{\"u}chtungspopulation {\"u}bertragen. Ferner wurden f{\"u}r die Schwarzfleckigkeit Stoffwechselprodukte des Respirationsstoffwechsels identifiziert sowie Aminos{\"a}uren, Glycerollipide und Phenylpropanoide f{\"u}r das Physiologische Alter als relevant erachtet. Das physiologische Altern konnte durch die Anwendung h{\"o}herer Temperaturen beschleunigt werden. Durch Anwendung von Keimhemmern (K{\"u}mmel{\"o}l, Chlorpropham) wurde eine Verz{\"o}gerung des physiologischen Alterns beobachtet. Die Applikation von K{\"u}mmel{\"o}l erwies sich dabei als besonders vorteilhaft. K{\"u}mmel{\"o}l behandelte Knollen wiesen im Vergleich zu unbehandelten Knollen nur Ver{\"a}nderungen im Aminos{\"a}ure-, Zucker- und Sekund{\"a}rstoffwechsel auf. Chlorpropham behandelte Knollen wiesen einen {\"a}hnlichen Stoffwechsel wie die unbehandelten Knollen auf. F{\"u}r die bislang noch nicht identifizierten Stoffwechselprodukte wurden im Rahmen dieser Arbeit das Verfahren der „gezielten An-/Abreicherung", der „gepaarten NMR/GC-TOF-MS Analyse" und das „Entscheidungsbaumverfahren" entwickelt. Diese erm{\"o}glichen eine Klassifizierung von GC-MS Signalen im Hinblick auf ihre chemische Funktionalit{\"a}t. Das Verfahren der gekoppelten NMR/GC-TOF-MS Analyse erwies sich dabei als besonders erfolgversprechend, da es eine Aufkl{\"a}rung bislang unbekannter gaschromatographischer Signale erm{\"o}glicht. In der vorliegenden Arbeit wurden neue Stoffwechselprodukte in der Kartoffelknolle identifiziert, wodurch ein wertvoller Beitrag zur Analytik der Metabolomik geleistet wurde.}, language = {de} } @phdthesis{Thesen2010, author = {Thesen, Manuel Wolfram}, title = {Synthese und Charakterisierung von phosphoreszenten Terpolymeren und nichtkonjugierten Matrixpolymeren f{\"u}r effiziente polymere Leuchtdioden}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-51709}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Mit Seitenkettenpolystyrenen wurde ein neues Synthesekonzept f{\"u}r phosphoreszente polymere LED-Materialien aufgestellt und experimentell verifiziert. Zun{\"a}chst erfolgten auf Grundlage strukturell einfacher Verbindungen Untersuchungen zum Einfluss von Spacern zwischen aktiven Seitengruppen und dem Polystyrenr{\"u}ckgrat. Es wurden Synthesemethoden f{\"u}r die Monomere etabliert, durch die aktive Elemente - Elektronen- und Lochleiter - mit und ohne diesen Spacer zug{\"a}nglich sind. Durch Kombination dieser Monomere waren unter Hinzunahme von polymerisierbaren Iridium-Komplexen in unterschiedlicher Emissionswellenl{\"a}nge statistische Terpolymere darstellbar. Es wurde gezeigt, dass die Realisierung bestimmter Verh{\"a}ltnisse zwischen Loch-, Elektronenleiter und Triplettemitter in ausreichender Molmasse m{\"o}glich ist. Die Glasstufen der Polymere zeigten eine deutliche Strukturabh{\"a}ngigkeit. Auf die Lage der Grenzorbitale {\"u}bten die Spacer nahezu keinen Einfluss aus. Die unterschiedlichen Makromolek{\"u}le kamen in polymeren Licht emittierenden Dioden (PLEDs) zum Einsatz, wobei ein deutlicher Einfluss der Spacereinheiten auf die Leistungscharakteristik der PLEDs festzustellen war: Sowohl Effizienz, Leuchtdichte wie auch Stromdichte waren durch den Einsatz der kompakten Makromolek{\"u}le ohne Spacer deutlich h{\"o}her. Diese Beobachtungen begr{\"u}ndeten sich haupts{\"a}chlich in der Verwendung der aliphatischen Spacer, die den Anteil im Polymer erh{\"o}hten, der keine Konjugation und damit elektrisch isolierende Eigenschaften besaß. Diese Schlussfolgerungen waren mit allen drei realisierten Emissionsfarben gr{\"u}n, rot und blau verifizierbar. Die besten Messergebnisse erzielte eine PLED aus einem gr{\"u}n emittierenden und spacerlosen Terpolymer mit einer Stromeffizienz von etwa 28 cd A-1 (bei 6 V) und einer Leuchtdichte von 3200 cd m-2 (bei 8 V). Ausgehend von obigen Ergebnissen konnten neue Matrixmaterialien aus dem Bereich verdampfbarer Molek{\"u}le geringer Molmasse in das Polystyrenseitenkettenkonzept integriert werden. Es wurden Strukturvariationen sowohl von loch- wie auch von elektronenleitenden Verbindungen als Homopolymere dargestellt und als molekular dotierte Systeme in PLEDs untersucht. Sieben verschiedene lochleitende Polymere mit Triarylamin-Grundk{\"o}rper und drei elektronendefizit{\"a}re Polymere auf der Basis von Phenylbenzimidazol konnten erfolgreich in den Polymeransatz integriert werden. Spektroskopische und elektrochemische Untersuchungen zeigten kaum eine Ver{\"a}nderung der Charakteristika zwischen verdampfbaren Molek{\"u}len und den dargestellten Makromolek{\"u}len. Diese ladungstransportierenden Makro-molek{\"u}le wurden als polymere Matrizes molekular dotiert und l{\"o}sungsbasiert zu Einschicht-PLEDs verarbeitet. Als aussichtsreichstes Lochleiterpolymer dieser Reihe, mit einer Strom-effizenz von etwa 33 cd A-1 (bei 8 V) und einer Leuchtdichte von 6700 cd m-2 (bei 10 V), stellte sich ein Triarylaminderivat mit Carbazolsubstituenten heraus. Als geeignetstes Matrixmaterial f{\"u}r die Elektronenleitung wurde ein meta-verkn{\"u}pftes Di-Phenylbenzimidazol ausfindig gemacht, das in der PLED eine Stromeffizienz von etwa 20 cd A-1 (bei 8 V) und eine Leuchtdichte von 7100 cd m-2 (bei 10 V) erzielte. Anschließend wurden die geeignetsten Monomere zu Copolymeren kombiniert: Die lochleitende Einheit bildete ein carbazolylsubstituiertes Triarylamin und die elektronen-leitende Einheit war ein disubstituiertes Phenylbenzimidazol. Dieses Copolymer diente im Folgenden dazu, PLEDs zu realisieren und die Leistungsdaten mit denen eines Homopolymer-blends zu vergleichen, wobei der Blend die bessere Leistungscharakteristik zeigte. Mit dem Homopolymerblend waren Bauteileffizienzen von ann{\"a}hernd 30 cd A-1 (bei 10 V) und Leuchtdichten von 6800 cd m-2 neben einer Verringerung der Einsatzspannung realisierbar. F{\"u}r die abschließende Darstellung bipolarer Blockcopolymere wurde auf die Nitroxid-vermittelte Polymerisation zur{\"u}ckgegriffen. Mit dieser Technik waren kontrollierte radikalische Polymersiationen mit ausgew{\"a}hlten Monomeren in unterschiedlichen Block-l{\"a}ngen durchf{\"u}hrbar. Diese Blockcopolymere kamen als molekular dotierte Matrizes in phosphoreszenten gr{\"u}n emittierenden PLEDs zum Einsatz. Die Bauteile wurden sowohl mit statistischen Copolymeren, wie auch mit Homopolymerblends in gleicher Zusammensetzung aber unterschiedlichem Polymerisationsgrad hinsichtlich der Leistungscharakteristik verglichen. Kernaussage dieser Untersuchungen ist, dass hochmolekulare Systeme eine bessere Leistungscharakteristik aufweisen als niedermolekulare Matrizes. {\"U}ber Rasterkraft-mikroskopie konnte eine Phasenseparation in einem Gr{\"o}ßenbereich von etwa 10 nm f{\"u}r den hochmolekularen Homopolymerblend nachgewiesen werden. F{\"u}r die Blockcopolymere war es nicht m{\"o}glich eine Phasenseparation zu beobachten, was vorwiegend auf deren zu geringe Blockl{\"a}nge zur{\"u}ckgef{\"u}hrt wurde.}, language = {de} } @phdthesis{Rasch2010, author = {Rasch, Claudia}, title = {Optische Spektroskopie zum Nachweis von Schimmelpilzen und deren Mykotoxine}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-50746}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Gesunde sowie qualitativ hochwertige Nahrungsmittel sind wichtige Voraussetzungen, um einerseits die Lebensmittelsicherheit entlang der Wertsch{\"o}pfungskette (Wachstum, Verarbeitung, Lagerung und Transport) und andererseits einen vorbeugenden Verbraucherschutz zu gew{\"a}hrleisten. Die Belastung der Nahrung mit R{\"u}ckst{\"a}nden jeglicher Art war in letzter Zeit h{\"a}ufig Mittelpunkt heftiger {\"o}ffentlicher Diskussionen. Zahlreiche Untersuchungen haben gezeigt, dass unter bestimmten Bedingungen durch Pilze gebildete Giftstoffe, so genannte Mykotoxine, die Ernteprodukte belasten und es bei deren Verzehr durch Menschen oder Tiere zu Vergiftungen kommen kann. Die FAO sch{\"a}tzt, dass etwa 25\% der Weltproduktion von Nahrungsmitteln mit Mykotoxinen kontaminiert und in 20\% der Getreideernte der Europ{\"a}ischen Union messbare Konzentrationen an Mykotoxinen detektierbar sind. Damit die Lebensmittelsicherheit weiterhin gew{\"a}hrleistet bleibt, werden neben den Routinemethoden schnellere und zerst{\"o}rungsfreie Methoden ben{\"o}tigt, um die Lebensmittel direkt vor Ort auf Schimmelpilze und deren Mykotoxine zu untersuchen. In dieser Arbeit wird das Potenzial von ausgew{\"a}hlten optisch-basierten spektroskopischen Methoden f{\"u}r die in-situ bzw. in-line Detektion von Schimmelpilzen sowie Mykotoxinen in Getreide(produkten) untersucht. Es werden Absorptions- und Reflexionsmethoden einerseits und Fluoreszenztechniken andererseits eingesetzt. Die spektroskopischen Methoden werden dabei auf Proben unterschiedlicher Komplexit{\"a}t angewandt - beginnend mit der Untersuchung der photophysikalischen Eigenschaften der reinen Mykotoxine in L{\"o}sung {\"u}ber k{\"u}nstlich mit verschiedenen Mykotoxinen kontaminierten Getreideproben bis hin zu mit Pilzen befallenem Getreide und hochveredelte Lebensmittel (Wein und Bier) als Proben h{\"o}chster Komplexit{\"a}t.}, language = {de} } @phdthesis{Kirchner2010, author = {Kirchner, Henriette}, title = {The ghrelin system links dietary lipids with the endocrine control of energy homeostasis}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52393}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Ghrelin is a unique hunger-inducing stomach-borne hormone. It activates orexigenic circuits in the central nervous system (CNS) when acylated with a fatty acid residue by the Ghrelin O-acyltransferase (GOAT). Soon after the discovery of ghrelin a theoretical model emerged which suggests that the gastric peptide ghrelin is the first "meal initiation molecule}, language = {en} } @phdthesis{Zaupa2010, author = {Zaupa, Alessandro}, title = {Physical crosslinking of gelatin : a supramolecular approach to biomaterials}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52888}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-\% or 25 wt.-\% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-\% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-\% for pure gelatin to 300 vol.-\% for the DATT modified gelatin), at the same time, Young's modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young's moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite.}, language = {en} } @phdthesis{Poltrock2010, author = {Poltrock, Silvana}, title = {About the relation between implicit Theory of Mind \& the comprehension of complement sentences}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-52293}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Previous studies on the relation between language and social cognition have shown that children's mastery of embedded sentential complements plays a causal role for the development of a Theory of Mind (ToM). Children start to succeed on complementation tasks in which they are required to report the content of an embedded clause in the second half of the fourth year. Traditional ToM tasks test the child's ability to predict that a person who is holding a false belief (FB) about a situation will act "falsely". In these task, children do not represent FBs until the age of 4 years. According the linguistic determinism hypothesis, only the unique syntax of complement sentences provides the format for representing FBs. However, experiments measuring children's looking behavior instead of their explicit predictions provided evidence that already 2-year olds possess an implicit ToM. This dissertation examined the question of whether there is an interrelation also between implicit ToM and the comprehension of complement sentences in typically developing German preschoolers. Two studies were conducted. In a correlational study (Study 1 ), 3-year-old children's performance on a traditional (explicit) FB task, on an implicit FB task and on language tasks measuring children's comprehension of tensed sentential complements were collected and tested for their interdependence. Eye-tracking methodology was used to assess implicit ToM by measuring participants' spontaneous anticipatory eye movements while they were watching FB movies. Two central findings emerged. First, predictive looking (implicit ToM) was not correlated with complement mastery, although both measures were associated with explicit FB task performance. This pattern of results suggests that explicit, but not implicit ToM is language dependent. Second, as a group, 3-year-olds did not display implicit FB understanding. That is, previous findings on a precocious reasoning ability could not be replicated. This indicates that the characteristics of predictive looking tasks play a role for the elicitation of implicit FB understanding as the current task was completely nonverbal and as complex as traditional FB tasks. Study 2 took a methodological approach by investigating whether children display an earlier comprehension of sentential complements when using the same means of measurement as used in experimental tasks tapping implicit ToM, namely anticipatory looking. Two experiments were conducted. 3-year-olds were confronted either with a complement sentence expressing the protagonist's FB (Exp. 1) or with a complex sentence expressing the protagonist's belief without giving any information about the truth/ falsity of the belief (Exp. 2). Afterwards, their expectations about the protagonist's future behavior were measured. Overall, implicit measures reveal no considerably earlier understanding of sentential complementation. Whereas 3-year-olds did not display a comprehension of complex sentences if these embedded a false proposition, children from 3;9 years on were proficient in processing complement sentences if the truth value of the embedded proposition could not be evaluated. This pattern of results suggests that (1) the linguistic expression of a person's FB does not elicit implicit FB understanding and that (2) the assessment of the purely syntactic understanding of complement sentences is affected by competing reality information. In conclusion, this dissertation found no evidence that the implicit ToM is related to the comprehension of sentential complementation. The findings suggest that implicit ToM might be based on nonlinguistic processes. Results are discussed in the light of recently proposed dual-process models that assume two cognitive mechanisms that account for different levels of ToM task performance.}, language = {en} } @phdthesis{Chirvasa2010, author = {Chirvasa, Mihaela}, title = {Finite difference methods for 1st Order in time, 2nd order in space, hyperbolic systems used in numerical relativity}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-42135}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {This thesis is concerned with the development of numerical methods using finite difference techniques for the discretization of initial value problems (IVPs) and initial boundary value problems (IBVPs) of certain hyperbolic systems which are first order in time and second order in space. This type of system appears in some formulations of Einstein equations, such as ADM, BSSN, NOR, and the generalized harmonic formulation. For IVP, the stability method proposed in [14] is extended from second and fourth order centered schemes, to 2n-order accuracy, including also the case when some first order derivatives are approximated with off-centered finite difference operators (FDO) and dissipation is added to the right-hand sides of the equations. For the model problem of the wave equation, special attention is paid to the analysis of Courant limits and numerical speeds. Although off-centered FDOs have larger truncation errors than centered FDOs, it is shown that in certain situations, off-centering by just one point can be beneficial for the overall accuracy of the numerical scheme. The wave equation is also analyzed in respect to its initial boundary value problem. All three types of boundaries - outflow, inflow and completely inflow that can appear in this case, are investigated. Using the ghost-point method, 2n-accurate (n = 1, 4) numerical prescriptions are prescribed for each type of boundary. The inflow boundary is also approached using the SAT-SBP method. In the end of the thesis, a 1-D variant of BSSN formulation is derived and some of its IBVPs are considered. The boundary procedures, based on the ghost-point method, are intended to preserve the interior 2n-accuracy. Numerical tests show that this is the case if sufficient dissipation is added to the rhs of the equations.}, language = {en} } @phdthesis{Audretsch2010, author = {Audretsch, Andreas}, title = {Zur Entstehung von Good Governance : Gr{\"u}nde, Muster und Bedingungen einer afrikanischen Entwicklung ; das Beispiel Ghana}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-42310}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Ghana ist ein Musterbeispiel daf{\"u}r, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gr{\"u}nde, Muster und Bedingungen f{\"u}hren zur Entstehung von Good Governance?". Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst {\"u}ber einen sehr langen Zeitraum ({\"u}ber ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu k{\"o}nnen. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes" sowohl unter R{\"u}ckgriff auf quantitative als auch auf qualitative Methoden durchgef{\"u}hrt, was sich im R{\"u}ckblick als sehr ertragreich erwiesen hat. Zun{\"a}chst wird die Qualit{\"a}t der Governance {\"u}ber den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gr{\"u}nde f{\"u}r die Fort- und R{\"u}ckschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkul{\"a}re Entwicklungen, die {\"u}ber viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbr{\"u}che aus den Kreisl{\"a}ufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bev{\"o}lkerung mit {\"o}ffentlichen G{\"u}tern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zun{\"a}chst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilit{\"a}t politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. {\"A}hnliche Verkn{\"u}pfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Ber{\"u}cksichtigung eines komplexen Governance-Systems verstanden und erkl{\"a}rt werden. Dabei k{\"o}nnen die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verst{\"a}ndnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance {\"u}ber das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengef{\"u}hrt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird dar{\"u}ber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Ver{\"a}nderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Ver{\"a}nderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachl{\"a}ssigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen.}, language = {de} } @phdthesis{Borchert2010, author = {Borchert, Manuela}, title = {Interactions between aqueous fluids and silicate melts : equilibration, partitioning and complexation of trace elements}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-42088}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {The origin and evolution of granites has been widely studied because granitoid rocks constitute a major portion of the Earth's crust. The formation of granitic magma is, besides temperature mainly triggered by the water content of these rocks. The presence of water in magmas plays an important role due to the ability of aqueous fluids to change the chemical composition of the magma. The exsolution of aqueous fluids from melts is closely linked to a fractionation of elements between the two phases. Then, aqueous fluids migrate to shallower parts of the Earth's crust because of it's lower density compared to that of melts and adjacent rocks. This process separates fluids and melts, and furthermore, during the ascent, aqueous fluids can react with the adjacent rocks and alter their chemical signature. This is particularly impor- tant during the formation of magmatic-hydrothermal ore deposits or in the late stages of the evolution of magmatic complexes. For a deeper insight to these processes, it is essential to improve our knowledge on element behavior in such systems. In particular, trace elements are used for these studies and petrogenetic interpretations because, unlike major elements, they are not essential for the stability of the phases involved and often reflect magmatic processes with less ambiguity. However, for the majority of important trace elements, the dependence of the geochemical behavior on temperature, pressure, and in particular on the composition of the system are only incompletely or not at all experimentally studied. Former studies often fo- cus on the determination of fluid-melt partition coefficients (Df/m=cfluid/cmelt) of economically interesting elements, e.g., Mo, Sn, Cu, and there are some partitioning data available for ele- ments that are also commonly used for petrological interpretations. At present, no systematic experimental data on trace element behavior in fluid-melt systems as function of pressure, temperature, and chemical composition are available. Additionally, almost all existing data are based on the analysis of quenched phases. This results in substantial uncertainties, particularly for the quenched aqueous fluid because trace element concentrations may change upon cooling. The objective of this PhD thesis consisted in the study of fluid-melt partition coefficients between aqueous solutions and granitic melts for different trace elements (Rb, Sr, Ba, La, Y, and Yb) as a function of temperature, pressure, salinity of the fluid, composition of the melt, and experimental and analytical approach. The latter included the refinement of an existing method to measure trace element concentrations in fluids equilibrated with silicate melts di- rectly at elevated pressures and temperatures using a hydrothermal diamond-anvil cell and synchrotron radiation X-ray fluorescence microanalysis. The application of this in-situ method enables to avoid the main source of error in data from quench experiments, i.e., trace element concentration in the fluid. A comparison of the in-situ results to data of conventional quench experiments allows a critical evaluation of quench data from this study and literature data. In detail, starting materials consisted of a suite of trace element doped haplogranitic glasses with ASI varying between 0.8 and 1.4 and H2O or a chloridic solution with m NaCl/KCl=1 and different salinities (1.16 to 3.56 m (NaCl+KCl)). Experiments were performed at 750 to 950◦C and 0.2 or 0.5 GPa using conventional quench devices (externally and internally heated pressure vessels) with different quench rates, and at 750◦C and 0.2 to 1.4 GPa with in-situ analysis of the trace element concentration in the fluids. The fluid-melt partitioning data of all studied trace elements show 1. a preference for the melt (Df/m < 1) at all studied conditions, 2. one to two orders of magnitude higher Df/m using chloridic solutions compared to experiments with H2O, 3. a clear dependence on the melt composition for fluid-melt partitioning of Sr, Ba, La, Y, and Yb in experiments using chloridic solutions, 4. quench rate-related differences of fluid-melt partition coefficients of Rb and Sr, and 5. distinctly higher fluid-melt partitioning data obtained from in-situ experiments than from comparable quench runs, particularly in the case of H2O as starting solution. The data point to a preference of all studied trace elements for the melt even at fairly high salinities, which contrasts with other experimental studies, but is supported by data from studies of natural co-genetically trapped fluid and melt inclusions. The in-situ measurements of trace element concentrations in the fluid verify that aqueous fluids will change their composition upon cooling, which is in particular important for Cl free systems. The distinct differences of the in-situ results to quench data of this study as well as to data from the literature signify the im- portance of a careful fluid sampling and analysis. Therefore, the direct measurement of trace element contents in fluids equilibrated with silicate melts at elevated PT conditions represents an important development to obtain more reliable fluid-melt partition coefficients. For further improvement, both the aqueous fluid and the silicate melt need to be analyzed in-situ because partitioning data that are based on the direct measurement of the trace element content in the fluid and analysis of a quenched melt are still not completely free of quench effects. At present, all available data on element complexation in aqueous fluids in equilibrium with silicate melts at high PT are indirectly derived from partitioning data, which involves in these experiments assumptions on the species present in the fluid. However, the activities of chemical components in these partitioning experiments are not well constrained, which is required for the definition of exchange equilibria between melt and fluid species. For example, the melt-dependent variation of partition coefficient observed for Sr imply that this element can not only be complexed by Cl- as suggested previously. The data indicate a more complicated complexation of Sr in the aqueous fluid. To verify this hypothesis, the in-situ setup was also used to determine strontium complexation in fluids equilibrated with silicate melts at desired PT conditions by the application of X-ray absorption near edge structure (XANES) spectroscopy. First results show a strong effect of both fluid and melt composition on the resulting XANES spectra, which indicates different complexation environments for Sr.}, language = {en} } @phdthesis{Huber2010, author = {Huber, Veronika Emilie Charlotte}, title = {Climate impact on phytoplankton blooms in shallow lakes}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-42346}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Lake ecosystems across the globe have responded to climate warming of recent decades. However, correctly attributing observed changes to altered climatic conditions is complicated by multiple anthropogenic influences on lakes. This thesis contributes to a better understanding of climate impacts on freshwater phytoplankton, which forms the basis of the food chain and decisively influences water quality. The analyses were, for the most part, based on a long-term data set of physical, chemical and biological variables of a shallow, polymictic lake in north-eastern Germany (M{\"u}ggelsee), which was subject to a simultaneous change in climate and trophic state during the past three decades. Data analysis included constructing a dynamic simulation model, implementing a genetic algorithm to parameterize models, and applying statistical techniques of classification tree and time-series analysis. Model results indicated that climatic factors and trophic state interactively determine the timing of the phytoplankton spring bloom (phenology) in shallow lakes. Under equally mild spring conditions, the phytoplankton spring bloom collapsed earlier under high than under low nutrient availability, due to a switch from a bottom-up driven to a top-down driven collapse. A novel approach to model phenology proved useful to assess the timings of population peaks in an artificially forced zooplankton-phytoplankton system. Mimicking climate warming by lengthening the growing period advanced algal blooms and consequently also peaks in zooplankton abundance. Investigating the reasons for the contrasting development of cyanobacteria during two recent summer heat wave events revealed that anomalously hot weather did not always, as often hypothesized, promote cyanobacteria in the nutrient-rich lake studied. The seasonal timing and duration of heat waves determined whether critical thresholds of thermal stratification, decisive for cyanobacterial bloom formation, were crossed. In addition, the temporal patterns of heat wave events influenced the summer abundance of some zooplankton species, which as predators may serve as a buffer by suppressing phytoplankton bloom formation. This thesis adds to the growing body of evidence that lake ecosystems have strongly responded to climatic changes of recent decades. It reaches beyond many previous studies of climate impacts on lakes by focusing on underlying mechanisms and explicitly considering multiple environmental changes. Key findings show that climate impacts are more severe in nutrient-rich than in nutrient-poor lakes. Hence, to develop lake management plans for the future, limnologists need to seek a comprehensive, mechanistic understanding of overlapping effects of the multi-faceted human footprint on aquatic ecosystems.}, language = {en} } @phdthesis{Creutzfeldt2010, author = {Creutzfeldt, Noah Angelo Benjamin}, title = {The effect of water storages on temporal gravity measurements and the benefits for hydrology}, url = {http://nbn-resolving.de/urn:nbn:de:kobv:517-opus-48575}, school = {Universit{\"a}t Potsdam}, year = {2010}, abstract = {Temporal gravimeter observations, used in geodesy and geophysics to study variation of the Earth's gravity field, are influenced by local water storage changes (WSC) and - from this perspective - add noise to the gravimeter signal records. At the same time, the part of the gravity signal caused by WSC may provide substantial information for hydrologists. Water storages are the fundamental state variable of hydrological systems, but comprehensive data on total WSC are practically inaccessible and their quantification is associated with a high level of uncertainty at the field scale. This study investigates the relationship between temporal gravity measurements and WSC in order to reduce the hydrological interfering signal from temporal gravity measurements and to explore the value of temporal gravity measurements for hydrology for the superconducting gravimeter (SG) of the Geodetic Observatory Wettzell, Germany. A 4D forward model with a spatially nested discretization domain was developed to simulate and calculate the local hydrological effect on the temporal gravity observations. An intensive measurement system was installed at the Geodetic Observatory Wettzell and WSC were measured in all relevant storage components, namely groundwater, saprolite, soil, top soil and snow storage. The monitoring system comprised also a suction-controlled, weighable, monolith-filled lysimeter, allowing an all time first comparison of a lysimeter and a gravimeter. Lysimeter data were used to estimate WSC at the field scale in combination with complementary observations and a hydrological 1D model. Total local WSC were derived, uncertainties were assessed and the hydrological gravity response was calculated from the WSC. A simple conceptual hydrological model was calibrated and evaluated against records of a superconducting gravimeter, soil moisture and groundwater time series. The model was evaluated by a split sample test and validated against independently estimated WSC from the lysimeter-based approach. A simulation of the hydrological gravity effect showed that WSC of one meter height along the topography caused a gravity response of 52 µGal, whereas, generally in geodesy, on flat terrain, the same water mass variation causes a gravity change of only 42 µGal (Bouguer approximation). The radius of influence of local water storage variations can be limited to 1000 m and 50 \% to 80 \% of the local hydro¬logical gravity signal is generated within a radius of 50 m around the gravimeter. At the Geodetic Observatory Wettzell, WSC in the snow pack, top soil, unsaturated saprolite and fractured aquifer are all important terms of the local water budget. With the exception of snow, all storage components have gravity responses of the same order of magnitude and are therefore relevant for gravity observations. The comparison of the total hydrological gravity response to the gravity residuals obtained from the SG, showed similarities in both short-term and seasonal dynamics. However, the results demonstrated the limitations of estimating total local WSC using hydrological point measurements. The results of the lysimeter-based approach showed that gravity residuals are caused to a larger extent by local WSC than previously estimated. A comparison of the results with other methods used in the past to correct temporal gravity observations for the local hydrological influence showed that the lysimeter measurements improved the independent estimation of WSC significantly and thus provided a better way of estimating the local hydrological gravity effect. In the context of hydrological noise reduction, at sites where temporal gravity observations are used for geophysical studies beyond local hydrology, the installation of a lysimeter in combination with complementary hydrological measurements is recommended. From the hydrological view point, using gravimeter data as a calibration constraint improved the model results in comparison to hydrological point measurements. Thanks to their capacity to integrate over different storage components and a larger area, gravimeters provide generalized information on total WSC at the field scale. Due to their integrative nature, gravity data must be interpreted with great care in hydrological studies. However, gravimeters can serve as a novel measurement instrument for hydrology and the application of gravimeters especially designed to study open research questions in hydrology is recommended.}, language = {en} }