TY - THES A1 - Henkel, Janin T1 - Modulation der Insulin-abhängigen Regulation des hepatischen Glucose- und Lipidmetabolismus durch Prostaglandin E2 Y1 - 2010 CY - Potsdam ER - TY - THES A1 - Löwinger, Maria T1 - Sulforaphan und Selen : Einfluss auf Phase II Enzyme und Selenoproteine sowie deren Effekt auf die entzündungsvermittelte Dickdarmkanzerogenese T1 - Sulforaphane and Selenium : impact on phase II enzymes and selenoproteins, and the effect on the inflammation triggered colon carcinogenesis N2 - Das ITC SFN und der Mikronährstoff Se sind bekannt als chemopräventive Inhaltsstoffe von Gemüse der Brassica-Familie, welcher auch Brokkoli angehört. Die Wirkungen von sowohl SFN als auch Se beruhen auf zahlreichen verschiedenen Mechanismen. Es existieren jedoch Schnittstellen, an welchen Interaktionen beider Substanzen möglich sind. Basierend auf diesem Wissen wurden in dieser Arbeit Wechselwirkungen zwischen SFN und Se auf die Aktivität sowie Expression von Phase II Enzymen und Selenoproteinen untersucht. Der Einfluss der Kombination von SFN und Se auf die unter physiologischen Bedingungen stattfindende Proliferation und Apoptose war ebenso Gegenstand der Arbeit wie die Modulation von Entzündungsprozessen sowie der Tumorentstehung während der entzündungsverstärkten Colonkanzerogenese im Mausmodell. Das hinsichtlich seiner Wirksamkeit mit aus GRA hydrolysiertem SFN zunächst als vergleichbar befundene synthetische SFN wurde für die Untersuchung im AOM/DSS-induzierten Colontumormodell gewählt und in Kombination mit 3 verschiedenen Selendiäten verabreicht. Der Einfluss von SFN und Se auf Phase II Enzyme und Selenoproteine entlang des GIT war organabhängig und nach 4 Wochen geringer als nach 7 Tagen. Die schwächere Induktion deutet auf eine Anpassung des Organismus hin. Ein SFN-vermittelter Effekt auf NQO1 war im Selenmangel am deutlichsten. Die Aktivität des Selenoproteins TrxR wurde hingegen erst bei ausreichender Selenversorgung durch SFN beeinflusst. Die als Nrf2-Zielgen bekannte und in der Hierarchie der Selenoproteine einen hohen Rang einnehmende GPx2 konnte in bestimmten Organen bereits unter selenarmen Bedingungen durch SFN induziert werden. Eine Überexpression des Enzyms war jedoch nicht möglich. SFN steigerte, unabhängig vom Selenstatus, im oberen Abschnitt des GIT und im Colon die Aktivität der GST. Eine Induktion des eigenen Metabolismus wäre somit denkbar. Im Falle eines Mangels an GPx2 wurde GPx1 bei hinreichender Selenversorgung stärker exprimiert, allerdings konnte sie die Funktion von GPx2 nicht völlig erset-zen. Im Selenmangel kann die Aktivitätssteigerung der TrxR im Dünndarm, dem Ab-schnitt der Selenabsorption, als ein Versuch der GPx2-Kompensation angesehen werden. SFN war nicht in der Lage, über eine Aktivierung des Nrf2/ARE-Signalweges kompensatorische Effekte zu induzieren. Apoptotische Prozesse wurden unter physiologischen Bedingungen nur marginal durch SFN und Se moduliert. Das elektrophile ITC konnte lediglich im Selenmangel Apoptose im luminalen Bereich der Colonkrypten induzieren. Die durch supranutritive Selenkonzentration induzierte Apoptose im Kryptengrund wurde nicht durch SFN beeinflusst. Einer bei Abwesenheit der GPx2 erhöhten Apoptoserate im Kryptengrund wirkte SFN bei adäquater Selenversorgung entgegen, war indessen proapoptotisch unter selendefizienten Konditionen. Der Einfluss von SFN auf die Entzündung war deutlich abhängig vom Selenstatus. Während SFN im Selenmangel anscheinend prooxidative Prozesse induzierte und die Entzündungssymptome verschlimmerte, wirkte es unter adäquatem Selenstatus an-tiinflammatorisch. Den vergleichsweise milden Grad der Entzündung im selensupplementierten Status konnte SFN nicht zusätzlich beeinflussen. SFN veränderte die Inzi-denz colorektaler Tumore nicht. Ein, die Tumorinitiation blockierender SFN-Effekt durch direkte Hemmung der metabolischen Aktivierung des Prokanzerogens im selenadäquaten Zustand scheint offensichtlich. Eine Überversorgung mit Se kann protektiv im Hinblick auf Entzündung oder Colonkanzerogenese sein, jedoch bewirkt SFN keinen zusätzlichen Schutz. Kombinationseffekte von SFN und Se in Bezug auf Phase II Enzyme, Selenoproteine und Apoptose sowie die entzündungsverstärkte Colonkanzerogenese sind nicht eindeutiger Natur und können, abhängig vom Endpunkt, synergistische oder antagonistische Züge aufweisen. Eine bei Selendefizienz deutlichere Wirkung von SFN kann mit Hilfe der gesteigerten Aktivierung von Nrf2 erklärt werden, dies muss jedoch nicht von Vorteil sein. Bei adäquater Selenversorgung kann SFN kurzfristig antiinflammatorische und antikanzerogene Prozesse induzieren. Von einer längerfristigen ständigen SFN-Aufnahme in Form von GRA-reichen Brassicacea ist jedoch abzuraten, da von einer Adaptation auszugehen ist. Die Wirkung von SFN innerhalb der komplexen Pflanzenmatrix bleibt Gegenstand zukünftiger Untersuchungen. N2 - Sulforaphane (SFN), a versatile actor derived from broccoli or other brassicaceae, is proposed to be a dietary anticarcinogen. Together with an adequate selenium status, it has been associated with a decreased risk for developing certain forms of cancer. In our mouse model, we investigate the influence of SFN and Se on the expression and activity of selenoproteins and phase II enzymes as well as the effects on inflammation triggered colon carcinogenesis. SFN increased NQO1 activity and protein expression significantly in the ileum, in both, Se-deficiently and Se-adequately fed animals. TrxR activity was increased in Se-adequately compared to Se-deficiently fed mice, SFN positively affected TrxR activity only in the former ones. An increase of GPx2 protein expression by SFN was observed in the ileum of mice of both diets. GPx1 reacts sensitively on Se supply. GST was the only enzyme analyzed being significantly increased by SFN on activity level in the colon. All AOM/DSS treated animals showed an inflammation, which was attenuated by SFN within Se-adequacy. In contrast, Se-deficient animals showed a more severe inflammation. The administration of SFN therefore seemed to enhance this even more and to be not beneficial in this case. SFN inhibited colon carcinogenesis in Se-adequate mice when being administered together with AOM. To summarize, both, GPx2 and TrxR, require selenium in order to be synthesized. In contrast to TrxR, the SFN-mediated induction of GPx2, the highest ranking selenoprotein, does not depend on additional selenium supply. Whereas distinct effects by SFN were observed in the ileum, only GST was influenced by SFN in the colon. SFN seems to induce its own metabolism. In conclusion, SFN and Se attenuate inflammation and colon carcinogenesis, preferably by means of up-regulating the endogenous defense system and inhibiting the metabolic activation of AOM. KW - Sulforaphan KW - Selen KW - Dickdarmkanzerogenese KW - Phase II Enzyme KW - Selenoproteine KW - sulforaphane KW - selenium KW - colon carcinogenesis KW - phase II enzymes KW - selenoproteins Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51862 ER - TY - THES A1 - Tronci, Giuseppe T1 - Synthesis, characterization, and biological evaluation of gelatin-based scaffolds T1 - Synthese, Charakterisierung und biologische Evaluierung Gelatine-basierter Scaffolds N2 - This work presents the development of entropy-elastic gelatin based networks in the form of films or scaffolds. The materials have good prospects for biomedical applications, especially in the context of bone regeneration. Entropy-elastic gelatin based hydrogel films with varying crosslinking densities were prepared with tailored mechanical properties. Gelatin was covalently crosslinked above its sol gel transition, which suppressed the gelatin chain helicity. Hexamethylene diisocyanate (HDI) or ethyl ester lysine diisocyanate (LDI) were applied as chemical crosslinkers, and the reaction was conducted either in dimethyl sulfoxide (DMSO) or water. Amorphous films were prepared as measured by Wide Angle X-ray Scattering (WAXS), with tailorable degrees of swelling (Q: 300-800 vol. %) and wet state Young’s modulus (E: 70 740 kPa). Model reactions showed that the crosslinking reaction resulted in a combination of direct crosslinks (3-13 mol.-%), grafting (5-40 mol.-%), and blending of oligoureas (16-67 mol.-%). The knowledge gained with this bulk material was transferred to the integrated process of foaming and crosslinking to obtain porous 3-D gelatin-based scaffolds. For this purpose, a gelatin solution was foamed in the presence of a surfactant, Saponin, and the resulting foam was fixed by chemical crosslinking with a diisocyanate. The amorphous crosslinked scaffolds were synthesized with varied gelatin and HDI concentrations, and analyzed in the dry state by micro computed tomography (µCT, porosity: 65±11–73±14 vol.-%), and scanning electron microscopy (SEM, pore size: 117±28–166±32 µm). Subsequently, the work focused on the characterization of the gelatin scaffolds in conditions relevant to biomedical applications. Scaffolds showed high water uptake (H: 630-1680 wt.-%) with minimal changes in outer dimension. Since a decreased scaffold pore size (115±47–130±49 µm) was revealed using confocal laser scanning microscopy (CLSM) upon wetting, the form stability could be explained. Shape recoverability was observed after removal of stress when compressing wet scaffolds, while dry scaffolds maintained the compressed shape. This was explained by a reduction of the glass transition temperature upon equilibration with water (dynamic mechanical analysis at varied temperature (DMTA)). The composition dependent compression moduli (Ec: 10 50 kPa) were comparable to the bulk micromechanical Young’s moduli, which were measured by atomic force microscopy (AFM). The hydrolytic degradation profile could be adjusted, and a controlled decrease of mechanical properties was observed. Partially-degraded scaffolds displayed an increase of pore size. This was likely due to the pore wall disintegration during degradation, which caused the pores to merge. The scaffold cytotoxicity and immunologic responses were analyzed. The porous scaffolds enabled proliferation of human dermal fibroblasts within the implants (up to 90 µm depth). Furthermore, indirect eluate tests were carried out with L929 cells to quantify the material cytotoxic response. Here, the effect of the sterilization method (Ethylene oxide sterilization), crosslinker, and surfactant were analyzed. Fully cytocompatible scaffolds were obtained by using LDI as crosslinker and PEO40 PPO20-PEO40 as surfactant. These investigations were accompanied by a study of the endotoxin material contamination. The formation of medical-grade materials was successfully obtained (<0.5 EU/mL) by using low-endotoxin gelatin and performing all synthetic steps in a laminar flow hood. N2 - Diese Arbeit beschreibt die Entwicklung Entropie-elastischer Gelatine-basierter Netzwerke als Filme und Scaffolds. Mögliche Anwendungen für die entwickelten Materialien liegen im biomedizinischen Bereich, insbesondere der Knochenregeneration. Im ersten Schritt der Arbeit wurden Entropie-elastische, Gelatine-basierte Hydrogel-Filme entwickelt, deren mechanische Eigenschaften durch die Veränderung der Quervernetzungsdichte eingestellt werden konnten. Dazu wurde Gelatine in Lösung oberhalb der Gel-Sol-Übergangstemperatur kovalent quervernetzt, wodurch die Ausbildung helikaler Konformationen unterdrückt wurde. Als Quervernetzer wurden Hexamethylendiisocyanat (HDI) oder Lysindiisocyanat ethylester (LDI) verwendet, und die Reaktionen wurden in Dimethylsulfoxid (DMSO) oder Wasser durchgeführt. Weitwinkel Röntgenstreuungs Spektroskopie (WAXS) zeigte, dass die Netzwerke amorph waren. Der Quellungsgrad (Q: 300-800 vol. %) und der Elastizitätsmodul (E: 70 740 kPa) konnten dabei durch die systematische Veränderung der Quervernetzungsdichte eingestellt werden. Die Analyse der Quervernetzungsreaktion durch Modellreaktionen zeigte, dass die Stabilisierung der Hydrogele sowohl auf kovalente Quervernetzungen (3-13 mol.-%) als auch auf Grafting von (5-40 mol.-%) und Verblendung mit Oligoharnstoffen (16-67 mol.-%) zurückgeführt werden kann. Die Erkenntnisse aus dem Umgang mit dem Bulk-Material wurden dann auf einen integrierten Prozess der Verschäumung und chemischen Quervernetzung transferiert, so dass poröse, dreidimensionale Scaffolds erhalten wurden. Dafür wurde eine wässrige Gelatinelösung in Gegenwart eines Tensids, Saponin, verschäumt, und durch chemische Quervernetzung mit einem Diisocyanat zu einem Scaffold fixiert. Die Scaffolds hergestellt mit unterschiedlichen Mengen HDI und Gelatine, wurden im trockenen Zustand mittels Mikro Computertomographie (µCT, Porosität: 65±11–73±14 vol.-%) und Rasterelektronenmikroskopie (SEM, Porengröße: 117±28–166±32) charakterisiert. Anschließend wurden die Scaffolds unter Bedingungen charakterisiert, die für biomedizinische Anwendungen relevant sind. Die Scaffolds nahmen große Mengen Wasser auf (H: 630 1680 wt.-%) bei nur minimalen Änderungen der äußeren Dimensionen. Konfokale Laser Scanning Mikroskopie zeigte, dass die Wasseraufnahme zu einer verminderten Porengröße führte (115±47–130±49 µm), wodurch die Formstabilität erklärbar ist. Eine Formrückstellung der Scaffolds wurde beobachtet, wenn Scaffolds im nassen Zustand komprimiert wurden und dann entlastet wurden, während trockene Proben in der komprimierten Formen blieben (kalte Deformation). Dieses Entropie-elastische Verhalten der nassen Scaffolds konnte durch die Verminderung der Glasübergangstemperatur des Netzwerks nach Wasseraufnahme erklärt werden (DMTA). Die zusammensetzungsabhängigen Kompressionsmoduli (Ec: 10 50 kPa) waren mit den mikromechanischen Young’s moduli vergleichbar, die mittels Rasterkraftmikroskopie (AFM) gemessen wurden. Das hydrolytische Degradationsprofil konnte variiert werden, und während des Abbaus kam es nur zu kontrolliert-graduellen Änderungen der mechanischen Eigenschaften. Während der Degradation konnte ein Anstieg der mittleren Porengröße beobachtet werden, was durch das Verschmelzen von Poren durch den Abbau der Wände erklärt werden kann. Die Endotoxinbelastung und die Zytotoxizität der Scaffolds wurden untersucht. Humane Haut-Fibroblasten wuchsen auf und innerhalb der Scaffolds (bis zu einer Tiefe von 90 µm). Indirekte Eluat-Tests mit L929 Mausfibroblasten wurden genutzt, um die Zytotoxizität der Materialien, insbesondere den Einfluss des Quervernetzertyps und des Tensids, zu bestimmen. Vollständig biokompatible Materialien wurden erzielt, wenn LDI als Quervernetzer und PEO40 PPO20-PEO40 als Tensid verwendet wurden. Durch den Einsatz von Gelatine mit geringem Endotoxin-Gehalt, und die Synthese in einer Sterilarbeitsblank konnten Materialien für medizinische Anwendungen (Endotoxin-Gehalt < 0.5 EU/mL) hergestellt werden. KW - Hydrogele KW - Polymer-Netzwerke KW - Gelatine KW - poröse Gerüste KW - Abbau KW - regenerative Medizin KW - hydrogels KW - polymer networks KW - gelatin KW - porous scaffolds KW - degradation KW - regenerative medicine Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49727 ER - TY - THES A1 - Müller, Anja T1 - Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur T1 - How children interpret sentences with nur? : Experiments on the acquisition of information structure N2 - Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert. N2 - Challenging previous accounts of children’s comprehension of focus particles, this study investigated how 6-year-old, German-speaking children interpret sentences with the focus particle nur(‘only’). Five experiments examined 1) whether the surface position of the focus particle has an impact on the sentence comprehension and 2) which role an adequate context plays for a target-like interpretation of a nur-sentence. It is known that in English, up to age 7, sentences with only are not interpreted adult-like. Crain et al. (1992) attributed errors to incorrect scope restrictions of the FP; Paterson et al. (2003) argued that children do not process the contrast information and instead ignore the FP. As oppose to previous research, the present data showed that German-speaking children interpret nur-sentences target-like if the sentences were contextually embedded. Furthermore, the results showed that children performed better on nur-object sentences like Die Maus hat nur einen Ball (‘The mouse has only a ball.’) than on nur-subject sentences like Nur die Maus hat einen Ball. (‘Only the mouse has a ball.’). This study argues that the asymmetry in the interpretation of nur-sentences stems from information-structural characteristics. In particular, I postulate the topic-default account which claims that children recognize the subject of the sentence as the topic by default. As a consequence, children assign an incorrect information structure to sentences with nur before the subject. Finally, based on the empirical findings of this study and on the topic-default account, an acquisition model for the comprehension of sentences with the focus particle nur is developed and discussed. KW - Fokuspartikel KW - Informationsstruktur KW - Spracherwerb KW - Satzverständnis KW - focus particle KW - information structure KW - language acquisition KW - sentence comprehension Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57767 ER - TY - THES A1 - Schmidt, Carsten T1 - Kafkas fast unbekannter Freund : Leben und Werk von Felix Weltsch, Zionist, Journalist und Philosoph Y1 - 2010 SN - 978-3-8260-4274-4 VL - 698 PB - Königshausen & Neumann CY - Würzburg ER - TY - THES A1 - Stamm, Sina T1 - Eisenbahnverfassung und Bahnprivatisierung : zur verfassungsrechtlichen Zulässigkeit und zum Prozess der Privatisierung der Deutschen Bahn AG T2 - Schriften zum öffentlichen Recht Y1 - 2010 SN - 978-3-428-13358-1 VL - 1173 PB - Duncker & Humblot CY - Berlin ER - TY - THES A1 - Bulut, Fatih T1 - Seismicity and fault kinematics of the North Anatolian fault zone along the 1999 Izmit rupture and its transition to the Marmara seismic gap Y1 - 2010 ER - TY - THES A1 - Zrenner, Rita T1 - Molekularphysiologische Untersuchung primärer Stoffwechselwege : der Einfluss des Kohlenhydrat- und Nukleotidstoffwechsels auf das Pflanzenwachstum Y1 - 2010 ER - TY - THES A1 - Raettig, Tim T1 - The cortical infrastructure of language processing: evidence from functional and anatomical neuroimaging T2 - MPI series in human cognitive and brain sciences Y1 - 2010 SN - 978-3-941504-03-5 VL - 119 PB - Max Planck Inst. for Human Cognitive and Brain Sciences CY - Leipzig ER - TY - THES A1 - Bleßmann, Daniela T1 - Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter T1 - Dynamical influence on stratospheric ozone variability over the Arctic in early winter N2 - Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus. N2 - The ozone amount in early winter provides an indication of the ozone amount in late winter/early spring. The early winter amount is highly variable from year to year due to modification by subsidence, chemical loss and wave activity. This thesis shows that this variability is mainly caused by the dynamics during the Arctic polar vortex formation. Furthermore, it explains the still missing link between early and late winter ozone amount due to dynamics and chemistry. Observational ozone data from satellite based instruments, ozone probes and simulations are used for the investigation of the connection between the composition of the air and the ozone enclosed in the polar vortex. The simulations are calculated with the Lagrangian chemistry/transport model ATLAS. The over area (45–75°N) and time (August-November) averaged vertical component of the Eliassen-Palm flux at 100hPa points to a link between the early winter composition of the air enclosed in the polar vortex and the vortex formation phase. This is only valid for the lower stratosphere, because the component does not satisfy changing conditions for wave propagation throughout the stratosphere by itself. Due to this deficit a new integral quantity based on wave amplitude and properties of the Charney-Drazin criterion is defined to achieve an improvement with height. This new quantity connects the wave activity during vortex formation to the composition of air inside the vortex as well as the distribution of ozone over latitude. An enhanced wave activity leads to a higher proportion of ozone rich air from lower latitudes inside the polar vortex. But chemistry in autumn and early winter removes the interannual variability in the amount of ozone enclosed in the vortex induced by dynamical processes during the formation phase of the Artic polar vortex because ozone relaxes towards equilibrium. An estimation of how relevant these variable dynamical processes are for the Arctic winter ozone abundances is obtained by analysing which fraction of dynamically induced anomalies in ozone persists until mid winter. Model runs with the Lagrangian Chemistry-Transport-Model ATLAS for the winter 1999–2000 are used to assess the fate of ozone anomalies artificially introduced during the vortex formation phase. These runs provide detailed information about the persistence of the induced ozone variability over time, height and latitude. Overall, dynamically induced ozone variability from the vortex formation phase survives longer inside the polar vortex compared to outside and can not significantly contribute to mid-winter variability at levels above 750K potential temperature level. At lower levels increasingly larger fractions of the initial perturbation survive, reaching 90% at 450K potential temperature level. In this vertical range dynamical processes during the vortex formation phase are crucial for the ozone abundance in mid-winter. KW - Stratosphäre KW - Ozon KW - Variabilität KW - Dynamik KW - Chemie-Transport-Modell KW - stratosphere KW - ozone KW - variability KW - dynamics KW - chemistry-transport-model Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51394 ER - TY - THES A1 - Jamil, Abdlhamed T1 - Fernerkundung und GIS zur Erfassung, Modellierung und Visualisierung orientalischer Stadtstrukturen : das Beispiel Sanaa (Jemen) T1 - Acquisition, modelling and visualisation of oriental city structures with remote sensing and GIS : the case of Sanaa (Yemen) N2 - Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockengürtel mittels hochauflösender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden können. Daten von hochauflösenden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Gebäude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen können zur Erfassung von Urbanisierungsprozessen (Stadt- und Bevölkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung für touristische Anwendungen, für die Stadtplanung, für Lärmanalysen oder für die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Gebäudedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Gebäude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Geländedaten, ergänzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und für jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgeführt wurde. Zusätzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Flächen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schwächen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Geländemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Gebäude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort für die Klassifikation herrschenden ungünstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den höchsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse gehörende Fläche besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit kürzer und die Speicherkapazität geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-geführten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Gebäude möglich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enthält. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer räumlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu zählen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die für Sanaa typischen Hochhäuser werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere städtische Räume des Typus orientalische Stadt angewendet werden kann. N2 - This study aims at the development and implementation of a generic procedure for the acquisition, processing, analysis and cartographic visualisation of urban space in arid zone cities based on operational remote sensing imagery. As a proof of concept the Yemeni capital Sanaa has been selected as a use case. The workflow developed is based on standard procedures and systems of spatial information processing and allows for subsequent automation oft its essential processes. Today, high-resolution remote sensing data from operational satellite systems (such as QuickBird, Ikonos etc) facilitate the recognition and mapping of urban objects such as buildings, streets and even cars which, in the past could only be acquired by non-operational aerial photography. The satellite imagery can be used to generate maps and even 3D-representation of the urban space. Both maps and 3D-visualisations can be used for up-to-date land use mapping, zoning and urban planning purposes etc. The 3D-visualisation provides a deeper understanding of urban structures by integrating building height into the analysis. For this study remote sensing data of the Quickbird satellite data of 2005 were used. They show a section of the city of Sanaa in Yemen. The remote sensing data were supplemented and verified by other data, including terrain data. The image data are then subjected to thorough digital image. This procedure consists of a pixel-oriented classification of the satellite image acquisition at class level. In addition, a visual interpretation of the satellite image has been undertaken to identify and label individual objects (areas, surfaces, streets) etc. which were subsequently digitised. The town maps created in both procedures were merged to one. Through this combination of the results, the advantages of both maps are brought together and their respective weaknesses are eliminated or minimized. The digital collection of the contour lines on the orthophoto map of Sanaa allowed for the creation of a digital terrain model, which was used for the three-dimensional representation of Sanaa's historic district. The 3D-visualisation was created from the classification results as well as from the digital collection of the objects and the results of both visualisations were combined in a city map. In all classification procedures, paved roads, vegetation and single buildings were detected very well. The best overall results with the highest accuracy values achieved in the pixel-oriented classification at class level. Because each class has been classified separately, size belonging to that class can be better understood and optimised. The amount of data could be reduced, thus requiring less memory and resulting in a shorter processing time. The evaluation and validation of the pixel-oriented visual classification results at class level with the original satellite imagery was designed more simply and more accurately than other classification methods implemented. It was also possible by the separate recording of the class building to create a 3D-visualisation. A comparison of the maps created found that the map created from visual interpretation contains more information. The map based on pixel-oriented classification results at class level proved to be less labor- and time-consuming, and the structure of an oriental city with the main features will be worked out better. The 2D-maps and the 3D-visualisation provide a different spatial impression, and certain elements of an oriental city clearly detectable. These include the characteristic dead ends in the old town and the former city wall. The typical high-rise houses of Sanaa are detected in the 3D-visualisation. This work developed a generic procedure to detect, analyse and visualise urban structures in arid zone environments. The city of Sanaa served as a proof of concept. The results show that the workflow developed is instrumental in detecting typical structures of oriental cities. The results achieved in the case study Sanaa prove that the process can be adapted to the investigation of other arid zone cities in the Middle East with minor modifications. KW - Fernerkundung KW - 3D-Visualisierung KW - Klassifikation KW - 2D-Stadtmodell KW - orientalische Stadt KW - remote sensing KW - 3D visualization KW - classification KW - 2D city model KW - oriental city Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50200 ER - TY - THES A1 - Blum, Niklas T1 - Formalization of a converged internet and telecommunications service environment T1 - Formalisierung einer konvergenten Telekommunikations- undInternet-Dienstumgebung N2 - The programmable network envisioned in the 1990s within standardization and research for the Intelligent Network is currently coming into reality using IPbased Next Generation Networks (NGN) and applying Service-Oriented Architecture (SOA) principles for service creation, execution, and hosting. SOA is the foundation for both next-generation telecommunications and middleware architectures, which are rapidly converging on top of commodity transport services. Services such as triple/quadruple play, multimedia messaging, and presence are enabled by the emerging service-oriented IPMultimedia Subsystem (IMS), and allow telecommunications service providers to maintain, if not improve, their position in the marketplace. SOA becomes the de facto standard in next-generation middleware systems as the system model of choice to interconnect service consumers and providers within and between enterprises. We leverage previous research activities in overlay networking technologies along with recent advances in network abstraction, service exposure, and service creation to develop a paradigm for a service environment providing converged Internet and Telecommunications services that we call Service Broker. Such a Service Broker provides mechanisms to combine and mediate between different service paradigms from the two domains Internet/WWW and telecommunications. Furthermore, it enables the composition of services across these domains and is capable of defining and applying temporal constraints during creation and execution time. By adding network-awareness into the service fabric, such a Service Broker may also act as a next generation network-to-service element allowing the composition of crossdomain and cross-layer network and service resources. The contribution of this research is threefold: first, we analyze and classify principles and technologies from Information Technologies (IT) and telecommunications to identify and discuss issues allowing cross-domain composition in a converging service layer. Second, we discuss service composition methods allowing the creation of converged services on an abstract level; in particular, we present a formalized method for model-checking of such compositions. Finally, we propose a Service Broker architecture converging Internet and Telecom services. This environment enables cross-domain feature interaction in services through formalized obligation policies acting as constraints during service discovery, creation, and execution time. N2 - Das programmierbare Netz, das Ende des 20. Jahrhunderts in der Standardisierung und Forschung für das Intelligente Netz entworfen wurde, wird nun Realität in einem auf das Internet Protokoll basierendem Netz der nächsten Generation (Next Generation Network). Hierfür kommen Prinzipien aus der Informationstechnologie, insbesondere aus dem Bereich dienstorientierte Architekturen (Service-Oriented Architecture / SOA) für die Diensterstellung, -ausführung und -betrieb zum Tragen. SOA bietet hierbei die theoretische Grundlage für Telekommunikationsnetze, vor allem jedoch für die dazugehörigen Dienstplattformen. Diese erlauben dem Telekommunikationsbetreiber seine Position in einem offenen Marktplatz der Dienste auszubauen. Dazu bedarf es allerdings möglichst flexibler Dienstumgebungen, die die Kooperation zwischen Dienstanbietern und Nutzern aus unterschiedlichsten Domänen durch Unterstützung geeigneter Werkzeuge und Mechanismen fördert. Im Rahmen dieser Dissertation definieren wir aufbauend auf Forschungsergebnisse im Bereich Overlay-Netze, Netzabstraktion und Zugriff auf exponierte Dienste eine Service Broker genannte Dienstumgebung für konvergente Internet- und Telekommunikationsdienste. Dieser Service Broker stellt Mechanismen für die Komposition von Diensten und Mediation zwischen unterschiedlichen Dienstparadigmen und Domänenspezifika beim Dienstaufruf zur Verfügung. Der Forschungsbeitrag dieser Arbeit findet auf unterschiedlichen Ebenen statt: Aufbauend auf einer Analyse und Klassifikation von Technologien und Paradigmen aus den Bereichen Informationstechnologie (IT) und Telekommunikation diskutieren wir die Problemstellung der Kooperation von Diensten und deren Komposition über Domänengrenzen hinweg. In einem zweiten Schritt diskutieren wir Methoden der Dienstkomposition und präsentieren eine formalisierte Methode der modellbasierten Diensterstellung. Der Schwerpunkt der Arbeit liegt auf der Spezifikation der Service Broker Dienstumgebung und einem zugrundeliegenden Informations- und Datenmodell. Diese Architektur erlaubt die Komposition und Kooperation von Diensten über Domänengrenzen hinweg, um konvergente Internet- und Telekommunikationsdienste zu realisieren. Hierfür wird ein auf Obligationspolitiken basierendes Regelsystemformalisiert, das Interaktionen zwischen Dienstmerkmalen während der Diensterstellung und -ausführung definiert. KW - Telekommunikation KW - konvergente Dienste KW - Next Generation Network KW - Dienstplattform KW - Dienstkomposition KW - Service Delivery Platform KW - Next Generation Network KW - Service Creation KW - Service convergence KW - Policy Enforcement Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51146 ER - TY - THES A1 - Kummer, Michael T1 - Die Fußballclubs Rot-Weiß Erfurt und Carl Zeiss Jena und ihre Vorgänger in der DDR : ein Vergleich ihrer Bedingungen T1 - The football clubs Rot-Weiss Erfurt and Carl Zeiss Jena and its predecessors in the GDR : a comparison of their conditions N2 - Der SC Motor/FC Carl Zeiss Jena war seit Ende der 50-er Jahre bis in die 80-er Jahre hinein ein vom DFV der DDR und vom DTSB immer wieder benannter und bestätigter Schwerpunktclub innerhalb der sogenannten zivilen Clubs. Der SC Turbine/FC Rot-Weiß Erfurt konnte diesen Status innerhalb des Fußballverbands dagegen nie erreichen. Die zentrale Frage dieser Dissertation nach den spezifischen Bedingungsgefügen des zivilen Schwerpunktclubs FC Carl Zeiss Jena (und Vorgänger) und des zivilen Nichtschwerpunktclubs FC Rot-Weiß Erfurt (und Vorgänger) im DDR-Fußballsystem ergab sich aus dieser unterschiedlichen Privilegierung und den ungleichen Erfolgsbilanzen dieser beiden Clubs. Die Hypothese der komparativ angelegten Fallstudie vermutete einen unmittelbaren Zusammenhang zwischen diesen deutlich sichtbaren Erfolgsunterschieden der beiden Mannschaften in der DDR und den erfolgten Schwerpunktfestlegungen. Zusätzlich konnte vermutet werden, dass ein beträchtlicher Anteil an den Jenaer Erfolgen auf die besonders starke Unterstützung des wirtschaftlich mächtigen VEB Carl Zeiss Jena zurückzuführen war. Um diesen Zusammenhängen nachzugehen, fragte der Autor nach den konkreten Bevorzugungen des Jenaer Schwerpunktclubs und den Benachteiligungen des Erfurter Nichtschwerpunktclubs und nach den spezifischen Bedingungen und Handlungsspielräumen der beiden Thüringer Mannschaften in der DDR. Daraus ergaben sich eine Reihe von detaillierten, auf einen Vergleich der verschiedenen Bedingungen in Erfurt und in Jena hin orientierte, Fragen, welche in der vorliegenden Untersuchung detailliert beantwortet werden: Wie sah die besondere Förderung des DFV bzw. des DTSB für einen Schwerpunktclub wie Jena überhaupt aus? Wer nahm Einfluss auf die Clubs, von wem waren diese abhängig, wer förderte sie durch welche Leistungen? Wie wurden diese Beschlüsse vor Ort umgesetzt? Wer waren die Trägerbetriebe und in welchem Maße und wodurch engagierten sich diese für den Fußball in Erfurt und Jena? Wie kamen die häufigen Wechsel der besten Spieler Erfurts nach Jena zustande? Warum war die Richtung dieser Wechsel insgesamt einseitig in Richtung Jena? Welche finanziellen, materiellen und sozialen Bedingungen konnten den Spielern in Jena und Erfurt geboten werden? Die vorliegenden Ergebnisse dieser erstmals für die zivilen Clubs auf der Mikroperspektive angelegten systematischen Untersuchung bestätigen das bereits von Hans Joachim Teichler als grundlegend für den DDR-Fußball beschriebene Konfliktmuster des „Fußball-Lokalpatriotismus versus Parteiräson“. Eigenmächtige Handlungen vieler Betriebsleiter und zahlreicher Partei- und Gewerkschaftsfunktionäre in den Trägerbetrieben konnten beispielsweise in Erfurt bei der eigenmächtigen Erhöhung der Aufnahmezahlen von Fußballern an die KJS Erfurt oder in Jena bei der Anstellung der Fußballer im Zeisswerk nachgewiesen werden. Das am sowjetischen Vorbild orientierte Sportsystem der DDR mit seinen engen Bindungen an die Trägerbetriebe provozierte geradezu verdeckte Zuwendungen der Betriebe, die über die Clubs an die Spieler weitergereicht wurden. Für die zentralen Instanzen des DDR-Fußballs war das ein Dauerproblem, weil sich damit ein Großteil der Vorgänge vor Ort der Steuerung entzog. Wie in der vorliegenden Arbeit beschrieben wird, war genau dies jedoch der Schlüssel für den Erfolg des SC Motor/FC Carl Zeiss Jena vom Ende der 50-er bis in den Anfang der 80-er Jahre bzw. für den vergleichsweisen Misserfolg des SC Turbine/FC Rot-Weiß Erfurt im gleichen Zeitraum. Dass letztlich die finanziellen, materiellen und sozialen Möglichkeiten die entscheidende Gründe für die Spieler waren, zu einem anderen Club oder einer BSG zu wechseln, mithin demnach Marktmechanismen, und hier in erster Linie der Grund für die Stärke des SC Motor/FC Carl Zeiss Jena zu suchen ist, ist eine zentrale Erkenntnis dieser Arbeit. N2 - The SC Motor/FC Carl Zeiss Jena was in the late 50's to the 80's one of the DFV der DDR and of the DTSB repeatedly nominated and confirmed priority club within the so-called civilian clubs. The SC Turbine/FC Rot-Weiss Erfurt could never reach this status within the Football Association. The central question of this thesis to the specific structure of conditions of the civilian priority club FC Carl Zeiss Jena (and earlier) and of the civilian non-focal clubs FC Rot-Weiss Erfurt (and earlier) in the East German football system resulted from these different privileges, and the uneven track records of these two clubs. The hypothesis of the comparative case study to suspected a direct relationship between these highly visible success differences between the two teams in the East and made the key requirements. Additionally it was suggested that a significant proportion of the Jena successes to the particularly strong support of the economically powerful VEB Carl Zeiss Jena was due. To investigate these relationships, the author asked about the specific preferences of the Jena focal club and the disadvantages of the Erfurt non-focal clubs and on the specific conditions and scope for action of the two Thuringian teams in the GDR. This resulted in a series of detailed, based on a comparison of the different conditions in Erfurt and Jena out questions that are answered in detail in this study: What was the specific support of the DFV or the DTSB for a priority club like Jena at all from? Who took effect on the club, by whom they were dependent on who they supported by what is included? How these decisions were implemented on site? Who were the carrier companies and to what extent and how dedicated these for football in Erfurt and Jena? How did the frequent change of the best players reached Erfurt in Jena? Why was the overall direction of these changes unilaterally in the direction of Jena? What financial, material and social conditions were the players in Jena and Erfurt are offered? The present results of this first time to the civilian clubs at the micro-perspective scale systematic study to confirm the already by Hans Joachim Teichler as fundamental to the East German football described patterns of conflict of "Football local patriotism versus party argue." Unauthorized actions of many managers and many party and union officials in the support operations for example, could be detected in Erfurt at the arbitrary increase in the numbers of pictures of football players at the KJS Erfurt in Jena or to the appointing of the footballers in the Zeiss factory. The Soviet model based on the GDR sports system provoked by his close ties to the carrier companies almost hidden benefits of companies that have been passed down through the clubs to the players. For the central authorities of the East German football was a constant problem because it deprived a large part of the operations of local control. As described in the present work, exactly that was, however, the key to the success of the SC Motor/FC Carl Zeiss Jena of the late 50's until the early 80's and for the comparative failure of the SC Turbine/FC Rot-Weiss Erfurt in the same period. That were the financial, physical and social opportunities the key reason for the players, ultimately, to move to another club or BSG, consequently, therefore market mechanisms, and this is primarily the reason for the strength of the SC Motor/FC Carl Zeiss Jena looking for is is a central finding of this study. KW - DDR-Fußball KW - FC Rot-Weiß Erfurt KW - FC Carl Zeiss Jena KW - Turbine Erfurt KW - Motor Jena KW - GDR-football KW - FC Rot-Weiss Erfurt KW - FC Carl Zeiss Jena KW - Turbine Erfurt KW - Motor Jena Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51065 ER - TY - THES A1 - Shirzaei, Manoochehr T1 - Crustal deformation source monitoring using advanced InSAR time series and time dependent inverse modeling T1 - Monitoring der Quellen von Krustendeformationen mit Hilfe modernster InSAR Zeitreihen und zeitabhängiger inverser Modellierung N2 - Crustal deformation can be the result of volcanic and tectonic activity such as fault dislocation and magma intrusion. The crustal deformation may precede and/or succeed the earthquake occurrence and eruption. Mitigating the associated hazard, continuous monitoring of the crustal deformation accordingly has become an important task for geo-observatories and fast response systems. Due to highly non-linear behavior of the crustal deformation fields in time and space, which are not always measurable using conventional geodetic methods (e.g., Leveling), innovative techniques of monitoring and analysis are required. In this thesis I describe novel methods to improve the ability for precise and accurate mapping the spatiotemporal surface deformation field using multi acquisitions of satellite radar data. Furthermore, to better understand the source of such spatiotemporal deformation fields, I present novel static and time dependent model inversion approaches. Almost any interferograms include areas where the signal decorrelates and is distorted by atmospheric delay. In this thesis I detail new analysis methods to reduce the limitations of conventional InSAR, by combining the benefits of advanced InSAR methods such as the permanent scatterer InSAR (PSI) and the small baseline subsets (SBAS) with a wavelet based data filtering scheme. This novel InSAR time series methodology is applied, for instance, to monitor the non-linear deformation processes at Hawaii Island. The radar phase change at Hawaii is found to be due to intrusions, eruptions, earthquakes and flank movement processes and superimposed by significant environmental artifacts (e.g., atmospheric). The deformation field, I obtained using the new InSAR analysis method, is in good agreement with continuous GPS data. This provides an accurate spatiotemporal deformation field at Hawaii, which allows time dependent source modeling. Conventional source modeling methods usually deal with static deformation field, while retrieving the dynamics of the source requires more sophisticated time dependent optimization approaches. This problem I address by combining Monte Carlo based optimization approaches with a Kalman Filter, which provides the model parameters of the deformation source consistent in time. I found there are numerous deformation sources at Hawaii Island which are spatiotemporally interacting, such as volcano inflation is associated to changes in the rifting behavior, and temporally linked to silent earthquakes. I applied these new methods to other tectonic and volcanic terrains, most of which revealing the importance of associated or coupled deformation sources. The findings are 1) the relation between deep and shallow hydrothermal and magmatic sources underneath the Campi Flegrei volcano, 2) gravity-driven deformation at Damavand volcano, 3) fault interaction associated with the 2010 Haiti earthquake, 4) independent block wise flank motion at the Hilina Fault system, Kilauea, and 5) interaction between salt diapir and the 2005 Qeshm earthquake in southern Iran. This thesis, written in cumulative form including 9 manuscripts published or under review in peer reviewed journals, improves the techniques for InSAR time series analysis and source modeling and shows the mutual dependence between adjacent deformation sources. These findings allow more realistic estimation of the hazard associated with complex volcanic and tectonic systems. N2 - Oberflächendeformationen können eine Folge von vulkanischen und tektonischen Aktivitäten sein, wie etwa Plattenverschiebungen oder Magmaintrusion. Die Deformation der Erdkruste kann einem Erdbeben oder einem Vulkanausbruch vorausgehen und/oder folgen. Um damit drohende Gefahren für den Menschen zu verringern, ist die kontinuierliche Beobachtung von Krustendeformationen eine wichtige Aufgabe für Erdobservatorien und Fast-Responce-Systems geworden. Auf Grund des starken nicht-linearen Verhaltens von Oberflächendeformationsgebiet in Zeit und Raum, die mit konventionellen Methoden nicht immer erfasst werden (z.B., Nivellements), sind innovative Beobachtungs- und Analysetechniken erforderlich. In dieser Dissertation beschreibe ich Methoden, welche durch Mehrfachbeobachtungen der Erdoberfläche nit satellitengestützem Radar eine präzise und akkurate Abbildung der raumzeitlichen Oberflächendeformationen ermöglichen. Um die Bildung und Entwicklung von solchen raumzeitlichen Deformationsgebieten besser zu verstehen, zeige ich weiterhin neuartige Ansätze zur statischen und zeitabhängigen Modellinversion. Radar-Interferogramme weisen häufig Gebiete auf, in denen das Phasensignal dekorreliert und durch atmosphärische Laufzeitverzögerung verzerrt ist. In dieser Arbeit beschreibe ich wie Probleme des konventionellen InSAR überwunden werden können, indem fortgeschrittene InSAR-Methoden, wie das Permanent Scatterer InSAR (PSI) und Small Baseline Subsets (SBAS), mit einer Wavelet-basierten Datenfilterung verknüpft werden. Diese neuartige Analyse von InSAR Zeitreihen wird angewendet, um zum Beispiel nicht-lineare Deformationsprozesse auf Hawaii zu überwachen. Radar-Phasenänderungen, gemessen auf der Pazifikinsel, beruhen auf Magmaintrusion, Vulkaneruption, Erdbeben und Flankenbewegungsprozessen, welche durch signifikante Artefakte (z.B. atmosphärische) überlagert werden. Mit Hilfe der neuen InSAR-Analyse wurde ein Deformationsgebiet ermittelt, welches eine gute Übereinstimmung mit kontinuierlich gemessenen GPS-Daten aufweist. Auf der Grundlage eines solchen, mit hoher Genauigkeit gemessenen, raumzeitlichen Deformationsgebiets wird für Hawaii eine zeitabhängige Modellierung der Deformationsquelle ermöglicht. Konventionelle Methoden zur Modellierung von Deformationsquellen arbeiten normalerweise mit statischen Daten der Deformationsgebiete. Doch um die Dynamik einer Deformationsquelle zu untersuchen, sind hoch entwickelte zeitabhängige Optimierungsansätze notwendig. Dieses Problem bin ich durch eine Kombination von Monte-Carlo-basierten Optimierungsansätzen mit Kalman-Filtern angegangen, womit zeitlich konsistente Modellparameter der Deformationquelle gefunden werden. Ich fand auf der Insel Hawaii mehrere, raumzeitlich interagierende Deformationsquellen, etwa Vulkaninflation verknüpft mit Kluftbildungen und Veränderungen in bestehenden Klüften sowie zeitliche Korrelationen mit stillen Erdbeben. Ich wendete die neuen Methoden auf weitere tektonisch und vulkanisch aktive Gebiete an, wo häufig die eine Interaktion der Deformationsquellen nachgewiesen werden konnte und ihrer bedeutung untersucht wurde. Die untersuchten Gebiete und Deformationsquellen sind 1) tiefe und oberflächliche hydrothermale und magmatische Quellen unterhalb des Campi Flegrei Vulkans, 2) gravitationsbedingte Deformationen am Damawand Vulkan, 3) Störungsdynamik in Verbindung mit dem Haiti Beben im Jahr 2010, 4) unabhängige blockweise Flankenbewegung an der Hilina Störungszone, und 5) der Einfluss eines Salzdiapirs auf das Qeshm Erdbeben im Süd-Iran im Jahr 2005. Diese Dissertation, geschrieben als kumulative Arbeit von neun Manuskripten, welche entweder veröffentlicht oder derzeit in Begutachtung bei ‘peer-review’ Zeitschriften sind, technische Verbesserungen zur Analyse von InSAR Zeitreihen vor sowie zur Modellierung von Deformationsquellen. Sie zeigt die gegenseitige Beeinflussung von benachbarten Deformationsquellen, und sie ermöglicht, realistischere Einschätzungen von Naturgefahren, die von komplexen vulkanischen und tektonischen Systemen ausgehen. KW - InSAR KW - Vulkan KW - Erdbeben KW - inverse Modellierung KW - InSAR KW - Vulcano KW - earthquake KW - inverse modeling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50774 ER - TY - THES A1 - Brauer, Falk T1 - Extraktion und Identifikation von Entitäten in Textdaten im Umfeld der Enterprise Search T1 - Extraction and identification of entities in text data in the field of enterprise search N2 - Die automatische Informationsextraktion (IE) aus unstrukturierten Texten ermöglicht völlig neue Wege, auf relevante Informationen zuzugreifen und deren Inhalte zu analysieren, die weit über bisherige Verfahren zur Stichwort-basierten Dokumentsuche hinausgehen. Die Entwicklung von Programmen zur Extraktion von maschinenlesbaren Daten aus Texten erfordert jedoch nach wie vor die Entwicklung von domänenspezifischen Extraktionsprogrammen. Insbesondere im Bereich der Enterprise Search (der Informationssuche im Unternehmensumfeld), in dem eine große Menge von heterogenen Dokumenttypen existiert, ist es oft notwendig ad-hoc Programm-module zur Extraktion von geschäftsrelevanten Entitäten zu entwickeln, die mit generischen Modulen in monolithischen IE-Systemen kombiniert werden. Dieser Umstand ist insbesondere kritisch, da potentiell für jeden einzelnen Anwendungsfall ein von Grund auf neues IE-System entwickelt werden muss. Die vorliegende Dissertation untersucht die effiziente Entwicklung und Ausführung von IE-Systemen im Kontext der Enterprise Search und effektive Methoden zur Ausnutzung bekannter strukturierter Daten im Unternehmenskontext für die Extraktion und Identifikation von geschäftsrelevanten Entitäten in Doku-menten. Grundlage der Arbeit ist eine neuartige Plattform zur Komposition von IE-Systemen auf Basis der Beschreibung des Datenflusses zwischen generischen und anwendungsspezifischen IE-Modulen. Die Plattform unterstützt insbesondere die Entwicklung und Wiederverwendung von generischen IE-Modulen und zeichnet sich durch eine höhere Flexibilität und Ausdrucksmächtigkeit im Vergleich zu vorherigen Methoden aus. Ein in der Dissertation entwickeltes Verfahren zur Dokumentverarbeitung interpretiert den Daten-austausch zwischen IE-Modulen als Datenströme und ermöglicht damit eine weitgehende Parallelisierung von einzelnen Modulen. Die autonome Ausführung der Module führt zu einer wesentlichen Beschleu-nigung der Verarbeitung von Einzeldokumenten und verbesserten Antwortzeiten, z. B. für Extraktions-dienste. Bisherige Ansätze untersuchen lediglich die Steigerung des durchschnittlichen Dokumenten-durchsatzes durch verteilte Ausführung von Instanzen eines IE-Systems. Die Informationsextraktion im Kontext der Enterprise Search unterscheidet sich z. B. von der Extraktion aus dem World Wide Web dadurch, dass in der Regel strukturierte Referenzdaten z. B. in Form von Unternehmensdatenbanken oder Terminologien zur Verfügung stehen, die oft auch die Beziehungen von Entitäten beschreiben. Entitäten im Unternehmensumfeld haben weiterhin bestimmte Charakteristiken: Eine Klasse von relevanten Entitäten folgt bestimmten Bildungsvorschriften, die nicht immer bekannt sind, auf die aber mit Hilfe von bekannten Beispielentitäten geschlossen werden kann, so dass unbekannte Entitäten extrahiert werden können. Die Bezeichner der anderen Klasse von Entitäten haben eher umschreibenden Charakter. Die korrespondierenden Umschreibungen in Texten können variieren, wodurch eine Identifikation derartiger Entitäten oft erschwert wird. Zur effizienteren Entwicklung von IE-Systemen wird in der Dissertation ein Verfahren untersucht, das alleine anhand von Beispielentitäten effektive Reguläre Ausdrücke zur Extraktion von unbekannten Entitäten erlernt und damit den manuellen Aufwand in derartigen Anwendungsfällen minimiert. Verschiedene Generalisierungs- und Spezialisierungsheuristiken erkennen Muster auf verschiedenen Abstraktionsebenen und schaffen dadurch einen Ausgleich zwischen Genauigkeit und Vollständigkeit bei der Extraktion. Bekannte Regellernverfahren im Bereich der Informationsextraktion unterstützen die beschriebenen Problemstellungen nicht, sondern benötigen einen (annotierten) Dokumentenkorpus. Eine Methode zur Identifikation von Entitäten, die durch Graph-strukturierte Referenzdaten vordefiniert sind, wird als dritter Schwerpunkt untersucht. Es werden Verfahren konzipiert, welche über einen exakten Zeichenkettenvergleich zwischen Text und Referenzdatensatz hinausgehen und Teilübereinstimmungen und Beziehungen zwischen Entitäten zur Identifikation und Disambiguierung heranziehen. Das in der Arbeit vorgestellte Verfahren ist bisherigen Ansätzen hinsichtlich der Genauigkeit und Vollständigkeit bei der Identifikation überlegen. N2 - The automatic information extraction (IE) from unstructured texts enables new ways to access relevant information and analyze text contents, which goes beyond existing technologies for keyword-based search in document collections. However, the development of systems for extracting machine-readable data from text still requires the implementation of domain-specific extraction programs. In particular in the field of enterprise search (the retrieval of information in the enterprise settings), in which a large amount of heterogeneous document types exists, it is often necessary to develop ad-hoc program-modules and to combine them with generic program components to extract by business relevant entities. This is particularly critical, as potentially for each individual application a new IE system must be developed from scratch. In this work we examine efficient methods to develop and execute IE systems in the context of enterprise search and effective algorithms to exploit pre-existing structured data in the business context for the extraction and identification of business entities in documents. The basis of this work is a novel platform for composition of IE systems through the description of the data flow between generic and application-specific IE modules. The platform supports in particular the development and reuse of generic IE modules and is characterized by a higher flexibility as compared to previous methods. A technique developed in this work interprets the document processing as data stream between IE modules and thus enables an extensive parallelization of individual modules. The autonomous execution of each module allows for a significant runtime improvement for individual documents and thus improves response times, e.g. for extraction services. Previous parallelization approaches focused only on an improved throughput for large document collections, e.g., by leveraging distributed instances of an IE system. Information extraction in the context of enterprise search differs for instance from the extraction from the World Wide Web by the fact that usually a variety of structured reference data (corporate databases or terminologies) is available, which often describes the relationships among entities. Furthermore, entity names in a business environment usually follow special characteristics: On the one hand relevant entities such as product identifiers follow certain patterns that are not always known beforehand, but can be inferred using known sample entities, so that unknown entities can be extracted. On the other hand many designators have a more descriptive character (concatenation of descriptive words). The respective references in texts might differ due to the diversity of potential descriptions, often making the identification of such entities difficult. To address IE applications in the presence of available structured data, we study in this work the inference of effective regular expressions from given sample entities. Various generalization and specialization heuristics are used to identify patterns at different syntactic abstraction levels and thus generate regular expressions which promise both high recall and precision. Compared to previous rule learning techniques in the field of information extraction, our technique does not require any annotated document corpus. A method for the identification of entities that are predefined by graph structured reference data is examined as a third contribution. An algorithm is presented which goes beyond an exact string comparison between text and reference data set. It allows for an effective identification and disambiguation of potentially discovered entities by exploitation of approximate matching strategies. The method leverages further relationships among entities for identification and disambiguation. The method presented in this work is superior to previous approaches with regard to precision and recall. KW - Informationsextraktion KW - Enterprise Search KW - Parallele Datenverarbeitung KW - Grammatikalische Inferenz KW - Graph-basiertes Ranking KW - information extraction KW - enterprise search KW - multi core data processing KW - grammar inference KW - graph-based ranking Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51409 ER - TY - THES A1 - Strehmel, Nadine T1 - GC-TOF-MS basierte Analyse von niedermolekularen Primär- und Sekundärmetaboliten agrarwirtschaftlich bedeutsamer Nutzpflanzen T1 - GC-TOF-MS based metabolite profiling of low molecular weight primary and secondary metabolites of agricultural meaningful crops N2 - Die Qualität von Nutzpflanzen ist von zahlreichen Einflussfaktoren wie beispielsweise Lagerbedingungen und Sorteneigenschaften abhängig. Um Qualitätsmängel zu minimieren und Absatzchancen von Nutzpflanzen zu steigern sind umfangreiche Analysen hinsichtlich ihrer stofflichen Zusammensetzung notwendig. Chromatographische Techniken gekoppelt an ein Massenspektrometer und die Kernspinresonanzspektroskopie wurden dafür bislang verwendet. In der vorliegenden Arbeit wurde ein Gaschromatograph an ein Flugzeitmassenspektrometer (GC-TOF-MS) gekoppelt, um physiologische Prozesse bzw. Eigenschaften (die Schwarzfleckigkeit, die Chipsbräunung, das Physiologische Alter und die Keimhemmung) von Nutzpflanzen aufzuklären. Als Pflanzenmodell wurde dafür die Kartoffelknolle verwendet. Dazu wurden neue analytische Lösungsansätze entwickelt, die eine zielgerichtete Auswertung einer Vielzahl von Proben, die Etablierung einer umfangreichen Referenzspektrenbibliothek und die sichere Archivierung aller experimentellen Daten umfassen. Das Verfahren der Probenvorbereitung wurde soweit modifiziert, dass gering konzentrierte Substanzen mittels GC-TOF-MS analysiert werden können. Dadurch wurde das durch die Probenvorbereitung limitierte Substanzspektrum erweitert. Anhand dieser Lösungsansätze wurden physiologisch relevante Stoffwechselprodukte identifiziert, welche indikativ (klassifizierend) bzw. prädiktiv (vorhersagend) für die physiologischen Prozesse sind. Für die Schwarzfleckigkeitsneigung und die Chipseignung wurde jeweils ein biochemisches Modell zur Vorhersage dieser Prozesse aufgestellt und auf eine Züchtungspopulation übertragen. Ferner wurden für die Schwarzfleckigkeit Stoffwechselprodukte des Respirationsstoffwechsels identifiziert sowie Aminosäuren, Glycerollipide und Phenylpropanoide für das Physiologische Alter als relevant erachtet. Das physiologische Altern konnte durch die Anwendung höherer Temperaturen beschleunigt werden. Durch Anwendung von Keimhemmern (Kümmelöl, Chlorpropham) wurde eine Verzögerung des physiologischen Alterns beobachtet. Die Applikation von Kümmelöl erwies sich dabei als besonders vorteilhaft. Kümmelöl behandelte Knollen wiesen im Vergleich zu unbehandelten Knollen nur Veränderungen im Aminosäure-, Zucker- und Sekundärstoffwechsel auf. Chlorpropham behandelte Knollen wiesen einen ähnlichen Stoffwechsel wie die unbehandelten Knollen auf. Für die bislang noch nicht identifizierten Stoffwechselprodukte wurden im Rahmen dieser Arbeit das Verfahren der „gezielten An-/Abreicherung“, der „gepaarten NMR/GC-TOF-MS Analyse“ und das „Entscheidungsbaumverfahren“ entwickelt. Diese ermöglichen eine Klassifizierung von GC-MS Signalen im Hinblick auf ihre chemische Funktionalität. Das Verfahren der gekoppelten NMR/GC-TOF-MS Analyse erwies sich dabei als besonders erfolgversprechend, da es eine Aufklärung bislang unbekannter gaschromatographischer Signale ermöglicht. In der vorliegenden Arbeit wurden neue Stoffwechselprodukte in der Kartoffelknolle identifiziert, wodurch ein wertvoller Beitrag zur Analytik der Metabolomik geleistet wurde. N2 - Several factors influence the quality of crops. These include particular storage conditions and cultivar properties. Minimization of quality defects requires the employment of comprehensive metabolic analysis to enhance the marketing potential of crops. From this point of view chromatographic techniques coupled either with a mass spectrometer or the combination with nuclear magnetic resonance spectroscopy have been successfully applied to solve the main tasks. In the present work, a gas chromatograph was coupled to a time of flight mass spectrometer (GC-TOF-MS) to analyze physiological processes and attitudes of crops like black spot bruising, chips tanning, physiological aging, and sprouting inhibition. For this purpose the potato tuber was employed as a model plant. Therefore, new analytical approaches were developed comprising the targeted analysis of a multitude of samples, the establishment of a comprehensive mass spectral reference library and the built up of a secure archival storage system. Furthermore, the sample preparation protocol was modified to analyze trace components with the help of GC-TOF-MS as well. This helped to extend the discovery of more endogenous metabolites. These analytical approaches were required to identify physiological relevant indicative and predictive metabolites. Consequently, a biochemical model was build up for the process of black spot bruising and chips tanning respectively. These models could be applied to an unknown breeding progeny. Metabolites of the respiratory chain were identified as relevant for the process of black spot bruising whereas amino acids, lipids and phenylpropanoids were of high importance for the process of physiological aging.  The process of physiological aging could be accelerated while applying higher temperatures and could be delayed while applying sprouting inhibitors, like caraway oil and chlorpropham. Compared to chlorpropham, caraway oil exhibited more advantages with respect to storage attitudes although it caused significant changes in the amino acid, sugar and secondary metabolism during a common storage period. However, the chlorpropham treated tubers showed a similar phenotype in comparison to the control tubers. In addition, several methods were developed with respect to the classification of yet unidentified signals. These cover the decision tree process, the targeted enrichment and depletion of specific metabolites with the help of solid phase extraction and the paired NMR and GC-MS analyses. The paired NMR and GC-MS analysis appears very promising because it allows for the identification of unknown GC-MS signals. Thus, this work makes a valuable contribution to the analytics of the metabolome, as new metabolites could be identified which are of physiological relevance for the potato tuber. KW - Stoffwechselprodukt KW - Kartoffelknolle KW - Identifizierung KW - analytische Lösungsansätze KW - Biomarker KW - metabolite KW - potato tuber KW - identification KW - analytical approaches KW - biomarker Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51238 ER - TY - THES A1 - Thesen, Manuel Wolfram T1 - Synthese und Charakterisierung von phosphoreszenten Terpolymeren und nichtkonjugierten Matrixpolymeren für effiziente polymere Leuchtdioden T1 - Synthesis and characterization of phosphoreszent terpolymers and nonconjugated matrixpolymers for efficient polymer light emitting diodes N2 - Mit Seitenkettenpolystyrenen wurde ein neues Synthesekonzept für phosphoreszente polymere LED-Materialien aufgestellt und experimentell verifiziert. Zunächst erfolgten auf Grundlage strukturell einfacher Verbindungen Untersuchungen zum Einfluss von Spacern zwischen aktiven Seitengruppen und dem Polystyrenrückgrat. Es wurden Synthesemethoden für die Monomere etabliert, durch die aktive Elemente - Elektronen- und Lochleiter - mit und ohne diesen Spacer zugänglich sind. Durch Kombination dieser Monomere waren unter Hinzunahme von polymerisierbaren Iridium-Komplexen in unterschiedlicher Emissionswellenlänge statistische Terpolymere darstellbar. Es wurde gezeigt, dass die Realisierung bestimmter Verhältnisse zwischen Loch-, Elektronenleiter und Triplettemitter in ausreichender Molmasse möglich ist. Die Glasstufen der Polymere zeigten eine deutliche Strukturabhängigkeit. Auf die Lage der Grenzorbitale übten die Spacer nahezu keinen Einfluss aus. Die unterschiedlichen Makromoleküle kamen in polymeren Licht emittierenden Dioden (PLEDs) zum Einsatz, wobei ein deutlicher Einfluss der Spacereinheiten auf die Leistungscharakteristik der PLEDs festzustellen war: Sowohl Effizienz, Leuchtdichte wie auch Stromdichte waren durch den Einsatz der kompakten Makromoleküle ohne Spacer deutlich höher. Diese Beobachtungen begründeten sich hauptsächlich in der Verwendung der aliphatischen Spacer, die den Anteil im Polymer erhöhten, der keine Konjugation und damit elektrisch isolierende Eigenschaften besaß. Diese Schlussfolgerungen waren mit allen drei realisierten Emissionsfarben grün, rot und blau verifizierbar. Die besten Messergebnisse erzielte eine PLED aus einem grün emittierenden und spacerlosen Terpolymer mit einer Stromeffizienz von etwa 28 cd A-1 (bei 6 V) und einer Leuchtdichte von 3200 cd m-2 (bei 8 V). Ausgehend von obigen Ergebnissen konnten neue Matrixmaterialien aus dem Bereich verdampfbarer Moleküle geringer Molmasse in das Polystyrenseitenkettenkonzept integriert werden. Es wurden Strukturvariationen sowohl von loch- wie auch von elektronenleitenden Verbindungen als Homopolymere dargestellt und als molekular dotierte Systeme in PLEDs untersucht. Sieben verschiedene lochleitende Polymere mit Triarylamin-Grundkörper und drei elektronendefizitäre Polymere auf der Basis von Phenylbenzimidazol konnten erfolgreich in den Polymeransatz integriert werden. Spektroskopische und elektrochemische Untersuchungen zeigten kaum eine Veränderung der Charakteristika zwischen verdampfbaren Molekülen und den dargestellten Makromolekülen. Diese ladungstransportierenden Makro-moleküle wurden als polymere Matrizes molekular dotiert und lösungsbasiert zu Einschicht-PLEDs verarbeitet. Als aussichtsreichstes Lochleiterpolymer dieser Reihe, mit einer Strom-effizenz von etwa 33 cd A-1 (bei 8 V) und einer Leuchtdichte von 6700 cd m-2 (bei 10 V), stellte sich ein Triarylaminderivat mit Carbazolsubstituenten heraus. Als geeignetstes Matrixmaterial für die Elektronenleitung wurde ein meta-verknüpftes Di-Phenylbenzimidazol ausfindig gemacht, das in der PLED eine Stromeffizienz von etwa 20 cd A-1 (bei 8 V) und eine Leuchtdichte von 7100 cd m-2 (bei 10 V) erzielte. Anschließend wurden die geeignetsten Monomere zu Copolymeren kombiniert: Die lochleitende Einheit bildete ein carbazolylsubstituiertes Triarylamin und die elektronen-leitende Einheit war ein disubstituiertes Phenylbenzimidazol. Dieses Copolymer diente im Folgenden dazu, PLEDs zu realisieren und die Leistungsdaten mit denen eines Homopolymer-blends zu vergleichen, wobei der Blend die bessere Leistungscharakteristik zeigte. Mit dem Homopolymerblend waren Bauteileffizienzen von annähernd 30 cd A-1 (bei 10 V) und Leuchtdichten von 6800 cd m-2 neben einer Verringerung der Einsatzspannung realisierbar. Für die abschließende Darstellung bipolarer Blockcopolymere wurde auf die Nitroxid-vermittelte Polymerisation zurückgegriffen. Mit dieser Technik waren kontrollierte radikalische Polymersiationen mit ausgewählten Monomeren in unterschiedlichen Block-längen durchführbar. Diese Blockcopolymere kamen als molekular dotierte Matrizes in phosphoreszenten grün emittierenden PLEDs zum Einsatz. Die Bauteile wurden sowohl mit statistischen Copolymeren, wie auch mit Homopolymerblends in gleicher Zusammensetzung aber unterschiedlichem Polymerisationsgrad hinsichtlich der Leistungscharakteristik verglichen. Kernaussage dieser Untersuchungen ist, dass hochmolekulare Systeme eine bessere Leistungscharakteristik aufweisen als niedermolekulare Matrizes. Über Rasterkraft-mikroskopie konnte eine Phasenseparation in einem Größenbereich von etwa 10 nm für den hochmolekularen Homopolymerblend nachgewiesen werden. Für die Blockcopolymere war es nicht möglich eine Phasenseparation zu beobachten, was vorwiegend auf deren zu geringe Blocklänge zurückgeführt wurde. N2 - A new synthetic approach for the synthesis of side chain polystyrenes was established and their use as phosphorescent polymers for polymer light emitting diodes (PLEDs) is shown by experiments. An assay was introduced to clarify influences on electroluminescent behavior for RGB-colored phosphorescent terpolymers with N,N-Di-p-tolyl-aniline as hole-transporting unit, 2-(4-biphenyl)-5-(4-tert-butylphenyl)-1,3,4-oxadiazole (tert-BuPBD) as electron-transporting unit, and different iridium complexes in RGB-colors as triplet emitting materials. All monomers were attached with spacer moieties to the “para” position of a polystyrene. PLEDs were built to study the electro-optical behavior of these materials. The gist was a remarkable influence of hexyl-spacer units to the PLED performance. For all three colors only very restricted PLED performances were found. In comparison RGB-terpolymers were synthesized with directly attached charge transport materials to the polymer backbone. For this directly linked systems efficiencies were 28 cd A−1 @ 6 V (green), 4.9 cd A−1 @ 5 V (red) and 4.3 cd A−1 @ 6 V (bluish). In summary it is assumed that an improved charge percolation pathways regarding to the higher content of semiconducting molecules and an improved charge transfer to the phosphorescent dopand in the case of the copolymers without spacers are responsible for the better device performance comparing the copolymers with hexyl spacers. It was found that the approach of the directly connected charge transport materials at the nonconjugated styrene polymer backbone is favored for further investigations as shown in the following. A series of styrene derived monomers with triphenylamine-based units, and their polymers have been synthesized and compared with the well-known structure of polymer of N,N′-bis(3-methylphenyl)-N,N′-diphenylbenzidine with respect to their hole-transporting behavior in PLEDs. A vinyltriphenylamine structure was selected as a basic unit, functionalized at the para positions with the following side groups: diphenylamine, 3-methylphenyl-aniline, 1- and 2-naphthylamine, carbazole, and phenothiazine. The polymers are used in PLEDs as host polymers for blend systems. It is demonstrated that two polymers are excellent hole-transporting matrix materials for these blend systems because of their good overall electroluminescent performances and their comparatively high glass transition temperatures. For the carbazole-substituted polymer (Tg = 246 °C), a luminous efficiency of 35 cd A−1 and a brightness of 6700 cd m−2 at 10 V is accessible. The phenothiazine-functionalized polymer (Tg = 220 °C) shows nearly the same outstanding PLED behavior. Hence, both these polymers outperform the well-known polymer of N,N′-bis(3-methylphenyl)-N,N′-diphenylbenzidine, showing only a luminous efficiency of 7.9 cd A−1 and a brightness of 2500 cd m−2 (10 V). Furthermore, novel styrene functionalized monomers with phenylbenzo[d]imidazole units and the corresponding homopolymers are prepared. The macromolecules are used as matrices for phosphorescent dopants to prepare PLEDs. The devices exhibit current efficiencies up to 38.5 cd A−1 at 100 cd m−2 and maximum luminances of 7400 cd m−2 at 10 V. Afterwards the most efficient monomers of this investigations were combined and statistical copolymers were synthesized. As hole-transporting monomer the carbazole substituted triarylamine and as electron-transporting monomer a disubstituted phenylbenzoimidazole was selected. This statistical copolymer was used in the following as matrix material for phosporescent PLEDs and the device performance was compared with a matrix system of a polymer blend matrix system of corresponding homopolymers. With this homopolymer blend efficiencies of about 30 cd A-1 at 10 V and luminances of 6800 cd m-2 beside a decreased onset voltage were realized. Finally bipolar blockcopolymers of structural basic monomers were synthesized via nitroxide mediated polymerization. With these technique and the chosen hole- and electron-transporting monomers a controlled radical polymerization was realized leading to blockcopolymers in different block lengths. These blockcopolymers were used as molecular doped matrix systems in green phosphoreszent PLEDs. The devices were compared in regard to their performances with PLEDs made of statistical copolymers and homopolymer blends. It was found that high molecular systems show a better device performance compared to low molecular polymer matrices. With atomic force microscopy it is shown that a phase separation takes place for the high molecular blend of homopolymers. For the synthesized blockcopolymers no phase separation could be verified, mainly because of the comparatively low molecular weight of these systems. KW - phosphoreszente Terpolymere KW - Elektrolumineszenz KW - organische Licht emittierende Diode KW - Ladungstransport KW - bipolare Blockcopolymere KW - phosphorescent Terpolymers KW - electroluminsecence KW - organic light emitting diode KW - charge transport KW - bipolar blockcopolymers Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51709 ER - TY - THES A1 - Rasch, Claudia T1 - Optische Spektroskopie zum Nachweis von Schimmelpilzen und deren Mykotoxine T1 - Optical spectroscopy for the determination of mould and mycotoxins N2 - Gesunde sowie qualitativ hochwertige Nahrungsmittel sind wichtige Voraussetzungen, um einerseits die Lebensmittelsicherheit entlang der Wertschöpfungskette (Wachstum, Verarbeitung, Lagerung und Transport) und andererseits einen vorbeugenden Verbraucherschutz zu gewährleisten. Die Belastung der Nahrung mit Rückständen jeglicher Art war in letzter Zeit häufig Mittelpunkt heftiger öffentlicher Diskussionen. Zahlreiche Untersuchungen haben gezeigt, dass unter bestimmten Bedingungen durch Pilze gebildete Giftstoffe, so genannte Mykotoxine, die Ernteprodukte belasten und es bei deren Verzehr durch Menschen oder Tiere zu Vergiftungen kommen kann. Die FAO schätzt, dass etwa 25% der Weltproduktion von Nahrungsmitteln mit Mykotoxinen kontaminiert und in 20% der Getreideernte der Europäischen Union messbare Konzentrationen an Mykotoxinen detektierbar sind. Damit die Lebensmittelsicherheit weiterhin gewährleistet bleibt, werden neben den Routinemethoden schnellere und zerstörungsfreie Methoden benötigt, um die Lebensmittel direkt vor Ort auf Schimmelpilze und deren Mykotoxine zu untersuchen. In dieser Arbeit wird das Potenzial von ausgewählten optisch-basierten spektroskopischen Methoden für die in-situ bzw. in-line Detektion von Schimmelpilzen sowie Mykotoxinen in Getreide(produkten) untersucht. Es werden Absorptions- und Reflexionsmethoden einerseits und Fluoreszenztechniken andererseits eingesetzt. Die spektroskopischen Methoden werden dabei auf Proben unterschiedlicher Komplexität angewandt - beginnend mit der Untersuchung der photophysikalischen Eigenschaften der reinen Mykotoxine in Lösung über künstlich mit verschiedenen Mykotoxinen kontaminierten Getreideproben bis hin zu mit Pilzen befallenem Getreide und hochveredelte Lebensmittel (Wein und Bier) als Proben höchster Komplexität. N2 - Problems of food safety have led to an increasing concern regarding contamination of foods and feeds with mycotoxins and the relevant toxigenic fungi, mainly Aspergillus, Penicillium and Fusarium genera. There is a real need for rapid, sensitive and inexpensive sensors for the detection of toxigenic fungi and mycotoxins, both in the field and after harvest in order to obtain real-time monitoring data on contamination and this assist in food safety assessment. This will result in an enormous cost saving to the farmers as well as to agro-food industry through the prevention and reduction of product recalls and reduced treatment costs. The German Ministry of Education and Research (BMBF) has provided funding of more than 1.9 million Euros from July 2006 to December 2009 for the large joint project "ProSeso.net2" on the development of innovative sensor-based techniques and processes in the field of food quality and safety. In this research-project "Exploration of sustainability potentials by use of sensor-based technologies and integrated assessment models in the production chain of plant related food" 13 partners from universities, non-university institutions and industry cooperate within seven subprojects. The expected results shall contribute to maintain freshness and improve safety of the food production chain. In the subproject “Indicators and sensor technology for the identification of mycotoxin producing fungi in the processing of grain” spectroscopic methods are tested for in-situ and in-line detection of moulds and/or mycotoxins. This presentation focuses on some possible spectroscopic methods for the rapid detection of mycotoxins and fungi on grains. Methods based on one- and two-photon-induced fluorescence spectroscopy are highly attractive because of their outstanding sensitivity and selectivity. In order to utilize a fluorescence technique for the analysis of the mycotoxins in food and feedstuff as well as for basic research on the fungal metabolism, the photochemistry and photophysics of the mycotoxins and fungi need to be elucidated in detail, especially the influence of solvent parameters such as polarity and pH value. Consequently, for a sensitive and selective spectroscopic analysis, it is indispensable to take the specific photophysic of the known mycotoxins into account in order to minimize serious limitations upon sensitivity, selectivity, and accuracy of a potential fluorescence-based sensing application. The spectroscopic techniques are complemented by chemometric tools (Principle Component Analysis) to extract the desired chemical information, e.g. with respect to presence of contaminations. The combination of data obtained from different spectroscopic methods (such as optimal excitation and emission wavelength, fluorescence decay times, and fluorescence quantum efficiency) on the one hand side and NIR spectroscopy on the other side shows promising results for the qualitative as well as quantitative identification of mycotoxins grains. Moreover, NIR reflectance spectra yield additional information on ingredients, moisture content, and the presence (or absence) of fungi in the sample. KW - Mykotoxine KW - Schimmelpilze KW - Fluoreszenz KW - Chemometrie KW - Zweiphotonenanregung KW - mycotoxins KW - mould KW - fluorescence KW - chemometrics KW - Two-Photon-Absorption Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50746 ER - TY - THES A1 - Kirchner, Henriette T1 - The ghrelin system links dietary lipids with the endocrine control of energy homeostasis T1 - Das Ghrelin-GOAT-System verbindet die Aufnahme von Nahrungsfetten mit der zentralen Regulation der Energiehomöostase N2 - Ghrelin is a unique hunger-inducing stomach-borne hormone. It activates orexigenic circuits in the central nervous system (CNS) when acylated with a fatty acid residue by the Ghrelin O-acyltransferase (GOAT). Soon after the discovery of ghrelin a theoretical model emerged which suggests that the gastric peptide ghrelin is the first “meal initiation molecule N2 - Ghrelin ist ein einzigartiges im Magen produziertes Hormon, da es von dem Enzym Ghrelin O-acyltransferase (GOAT) mit einer mittelkettigen Fettsäure acyliert werden muss, um biologische Aktivität zu erlangen. Kurz nach seiner Entdeckung entstand die Hypothese, dass Ghrelin das „Hungerhormon“ sei und eine wichtige Rolle in der Regulation des Energiehaushalts spiele. Die genetische Manipulation von Ghrelin und seinem Rezeptor, dem GHSR, hat jedoch nur geringe Auswirkung auf Appetit und Körpergewicht. In der hier vorliegenden Studie stellen wir neuartige Mausmodelle mit abgewandelter Ghrelin-, GHSR- und GOATfunktion vor, um den Einfluss des Ghrelinsystems auf die Regulation der Energiehomöostase zu reevaluieren. Weiterhin wird die endogene Regulation von GOAT erstmalig beschrieben. Double-knockout Mäuse, die gleichzeitig defizitär für Ghrelin und GHSR sind, haben ein geringeres Körpergewicht, weniger Fettmasse und einen niedrigeren Energieverbrauch als Kontrolltiere. Knockout Mäuse für das GOAT Gen Mboat4 sind leichter und schlanker als Kontrolltiere. Dementsprechend haben transgene Mäuse, die Ghrelin und GOAT überproduzieren, eine erhöhte Fettmasse und einen verminderten Energieverbrauch. Weiterhin können wir zeigen, dass GOAT, anders als auf Grund der allgemein bekannten Ghrelinfunktion angenommen, nicht durch Hungern aktiviert wird. Bei Mäusen, die gefastet haben, ist die Genexpression von Mboat4 deutlich herunterreguliert, woraus ein geringer Blutspiegel von Acyl-Ghrelin resultiert. Daraus haben wir geschlossen, dass GOAT eventuell Nahrungsfette und nicht die durch Hungern freigesetzten endogen Fettsäuren zur Ghrelinacylierung benutzt. Fütterungsversuche bestätigen diese Hypothese, da GOAT die unnatürliche Fettsäure Heptan Säure (C7), die der Tiernahrung beigefügt wurde, zur Ghrelinacylierung verwendet. Ein weiteres Indiz für die Notwendigkeit von Nahrungsfetten für die Ghrelinacylierung ist, dass die transgenen Ghrelin/GOAT Mäuse nur massiv Acyl-Ghrelin produzieren, wenn sie mit einer Diät gefüttert werden, die mit mittelkettigen Fettsäuren angereichert ist. Zusammenfassend zeigt die Studie, dass das Ghrelinsystem maßgeblich an der Regulation der Energiehomöostase beteiligt ist und dass die Ghrelinaktivierung direkt von Nahrungsfetten beeinflusst wird. Daraus könnte geschlossen werden, dass Ghrelin wohlmöglich nicht das Hungerhormon ist, wie bisher generell angenommen wurde. Ghrelin könnte vielmehr ein potentieller “Fettsensor KW - Ghrelin KW - GOAT KW - Hungerhormon KW - Nahrungsfette KW - Energiehaushalt KW - Ghrelin KW - GOAT KW - hunger hormone KW - dietary lipids KW - energy homeostasis Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52393 ER - TY - THES A1 - Zaupa, Alessandro T1 - Physical crosslinking of gelatin : a supramolecular approach to biomaterials T1 - Physikalische Quervernetzung von Gelatine : ein supramolekularer Zugang zu Biomaterialien N2 - This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-% or 25 wt.-% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-% for pure gelatin to 300 vol.-% for the DATT modified gelatin), at the same time, Young’s modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young’s moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite. N2 - Diese Arbeit beschreibt die Entwicklung von durch spezifische physikalische Wechselwirkungen quervernetzten Gelatine-basierten Materialien. Dazu wurden zunächst Computermodelle entwickelt, mit denen Eigenschaften der Materialien vorhergesagt werden sollten, um so eine wissensbasierte Entwicklung zu ermöglichen, um dann die Ergebnisse mit experimentellen Daten zu vergleichen und die Materialien und Modelle als Grundlage für weitere Entwicklungen zu nutzen. Gelatine wurde mit Desaminotyrosin (DAT) und Desaminotyrosyltyrosin (DATT) funktionalisiert, die sich von der natürlichen Aminosäure Tyrosin ableiten. Diese Gruppen können potentiell π-π Wechselwirkungen und Wasserstoffbrückenbindungen auch unter physiologischen Bedingungen eingehen. Es wurden Computersimulationen der Materialien mittels Moleküldynamik durchgeführt, wobei Modelle mit 0.8 Gew.-% und 25 Gew.-% Wassergehalt betrachtet wurden. Die Validierung der Modelle erfolgte durch Vergleich der errechneten mit experimentellen Daten wie z.B. der Dichte, Bindungswinkeln sowie Röntgenstreuungsspektren. Die Modelle wurden dann zur Vorhersage der molekularen Organisation der Polymerketten, Formierung physikalischer Netzpunkte und Berechnung der mechanischen Eigenschaften eingesetzt. Die Funktionalisierung der Gelatine mit DAT bzw. DATT führten wie gewünscht zur Ausbildung physikalischer Netzpunkte durch π-π Wechselwirkungen und Wasserstoffbrücken¬bindungen. Ein Schlüsselergebnis der Simulationen war, dass mit zunehmender Zahl an aromatischen Gruppen auch eine Zunahme der physikalischen Netzpunkte beobachtet werden konnte. Die funktionalisierten Gelatinen konnten durch chemoselektive Reaktion der Aminogruppen der Gelatine mit den freien Carboxylgruppen von DAT und DATT hergestellt werden. Materialien mit 25 Gew.-% Wassergehalt hatten in der Simulation und im Experiment mechanische Eigenschaften derselben Größenordnung (z.B. E-Moduln im unteren GPa-Bereich). Der Quellungsgrad der Materialien im Experiment nahm mit zunehmender Zahl an aromatische Gruppen ab (von 2800 Vol.-% auf 300 Vol.-%), wobei der Elastizitätsmodul, die Bruchdehnung sowie die Zugfestigkeit zunahmen. Die Funktionalisierung der Gelatine ist eine chemische Methode, um die Kettenanordnung auf molekularer Ebene zu beeinflussen, während die genaue Kontrolle der Trocknungs¬bedinguungen von Gelatine-basierten Materialien eine physikalische Methode mit demselben Ziel ist. Es konnte gezeigt werden, dass die Funktionalisierung von Gelatine mit DAT oder DATT zu einer stark verminderten Helixausbildungstendenz, die jedoch durch Variation der Trocknunsgbedingungen noch fein abgestimmt werden konnte. Somit konnten die mechanischen Eigenschaften von Filmen aus funktionlisierter Gelatine mit zwei unabhängigen Methoden eingestellt werden. Komposite der mit DAT oder DATT funktionalisierten Gelatine und Hydroxyapatit (HAp) zeigten deutlich verringerter Quellung. In Zugdehnungsexperimenten und rheologischen Untersuchungen zeigten die Komposite im Gleichgewichtsquellungszustand erhöhte Elastizitätsmoduln (von 200 kPa auf bis zu 2 MPa) und Zugfestigkeit (von 57 kPa auf bis zu 1.1 MPa). Darüber hinaus konnte die Übergangstemperatur Tc deutlich gesteigert werden (von ca. 40 °C auf > 85 °C). Dieses Verhalten ließ sich auf stabilisierende Bindungen zwischen den aromatische Gruppen und dem HAp zurückführen. KW - Physikalische Quervernetzung KW - Supramolekularen Wechselwirkung KW - Molekulare Modellierung KW - Biomaterialien KW - Gelatine KW - Komposite KW - Hydroxyapatit KW - Physical Network KW - Supramolecular Interaction KW - Molecular modeling KW - Biomaterial KW - Gelatin KW - Composite KW - Hydroxyapatite Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52888 ER -