TY - CHAP A1 - Rolf, Arno A1 - Berges, Marc A1 - Hubwieser, Peter A1 - Kehrer, Timo A1 - Kelter, Udo A1 - Romeike, Ralf A1 - Frenkel, Marcus A1 - Karsten, Weicker A1 - Reinhardt, Wolfgang A1 - Mascher, Michael A1 - Gül, Senol A1 - Magenheim, Johannes A1 - Raimer, Stephan A1 - Diethelm, Ira A1 - Dünnebier, Malte A1 - Gabor, Kiss A1 - Susanne, Boll A1 - Rolf, Meinhardt A1 - Gronewold, Sabine A1 - Krekeler, Larissa A1 - Jahnke, Isa A1 - Haertel, Tobias A1 - Mattick, Volker A1 - Lettow, Karsten A1 - Hafer, Jörg A1 - Ludwig, Joachim A1 - Schumann, Marlen A1 - Laroque, Christoph A1 - Schulte, Jonas A1 - Urban, Diana ED - Engbring, Dieter ED - Keil, Reinhard ED - Magenheim, Johannes ED - Selke, Harald T1 - HDI2010 – Tagungsband der 4. Fachtagung zur "Hochschuldidaktik Informatik" N2 - Mit der 4. Tagung zur Hochschuldidaktik Informatik wird eine Reihe fortgesetzt, die ihren Anfang 1998 in Stuttgart unter der Überschrift „Informatik und Ausbildung“ genommen hat. Seither dienen diese Tagungen den Lehrenden im Bereich der Hochschulinformatik als Forum der Information und des Diskurses über aktuelle didaktische und bildungspolitische Entwicklungen im Bereich der Informatikausbildung. Aktuell zählen dazu insbesondere Fragen der Bildungsrelevanz informatischer Inhalte und der Herausforderung durch eine stärkere Kompetenzorientierung in der Informatik. Die eingereichten Beiträge zur HDI 2010 in Paderborn veranschaulichen unterschiedliche Bemühungen, sich mit relevanten Problemen der Informatikdidaktik an Hochschulen in Deutschland (und z. T. auch im Ausland) auseinanderzusetzen. Aus der Breite des Spektrums der Einreichungen ergaben sich zugleich Probleme bei der Begutachtung. Letztlich konnten von den zahlreichen Einreichungen nur drei die Gutachter so überzeugen, dass sie uneingeschränkt in ihrer Langfassung akzeptiert wurden. Neun weitere Einreichungen waren trotz Kritik überwiegend positiv begutachtet worden, so dass wir diese als Kurzfassung bzw. Diskussionspapier in die Tagung aufgenommen haben. T3 - Commentarii informaticae didacticae (CID) - 4 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49167 SN - 978-3-86956-100-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Zimmering, Raina T1 - Die Zapatistas in Mexiko : der antisystemische und antietatistische Charakter einer populären Bewegung N2 - Wie kaum eine andere soziale Bewegung der letzten 25 Jahre erfuhren die Zapatisten eine weltweite, breite Rezeption. Von der medialen Präsenz der 1990er Jahre ist jedoch nicht viel übrig geblieben. Um die mexikanischen Guerillas ist es ruhig geworden. Wurden die Zapatistas vom Zeitgeist überholt? Verloren ihre postneoliberalen Ansätze durch den Wandel der Bewegung an Attraktivität? Das Papier geht den Ursprüngen der indigenen Aufstandsbewegung und deren Paradigmenwechsel nach und zeigt auf, wie trotz des neu eingeschlagenen Weges der antisystemische und antietatistische Charakter der Bewegung beibehalten wurde. T3 - WeltTrends Papiere - 13 KW - Zapatisten KW - Mexiko KW - Neoliberalismus Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41296 SN - 978-3-86956-046-5 PB - Universitätsvverlag Potsdam CY - Potsdam ER - TY - THES A1 - Rackow, Maja T1 - Personalmarketing in der öffentlichen Verwaltung : Analyse und Implikationen eines Best Practice-Ansatzes T1 - Attracting talents for the public sector : analysis and implications of a best practice approach N2 - In den vergangenen Jahren gewannen in der Personalwirtschaft Begriffe wie War for Talent und Fachkräftemangel immer mehr an Bedeutung. Unternehmen der Privatwirtschaft betreiben daher gezielt Personalmarketing - öffentliche Verwaltungen bisher kaum. Obwohl die Kombination aus einer überalterten Belegschaft, sinkenden Schulabsolventenzahlen und einem weitgehend unattraktiven Arbeitgeberimage insbesondere für öffentliche Verwaltungen die Gefahr eines eklatanten Mangels qualifizierter Nachwuchskräfte birgt. Die vorliegende Arbeit geht der Frage nach wie Personalmarketing in öffentlichen Verwaltungen bereits erfolgreich betrieben wird und welche Erfolgsfaktoren sich daraus für den Einsatz in anderen Verwaltungen ableiten lassen. Mit Hilfe der Analyse eines Best Practice-Ansatzes und auf der Basis der für die Privatwirtschaft bereits identifizierten Erfolgsfaktoren werden diese für den erfolgreichen Einsatz von Personalmarketing in der öffentlichen Verwaltung herausgearbeitet. Der Fokus des Praxisbeispiels liegt dabei auf der Rekrutierung von Nachwuchskräften für den mittleren und gehobenen allgemeinen nicht-technischen Verwaltungsdienst. Als Best Practice-Beispiel dient das Ausbildungsmarketing der Freien und Hansestadt Hamburg. Im Ergebnis decken sich die grundsätzlichen Erfolgsfaktoren mit denen der Privatwirtschaft. Dazu gehören u. a. das Vorhandensein eines strategischen Konzepts, die Formulierung klarer und messbarer Ziele sowie das systematische Überprüfen der Effektivität und Effizienz des Personalmarketing sowie einzelner Instrumente. Für öffentliche Verwaltungen ist es zudem besonders wichtig das Arbeitgeberimage zu verbessern. Dies sollte bei der Ansprache von Nachwuchskräften mit Hilfe moderner Medien, durch Einblicke in Verwaltungsaufgaben und die Einbindung von Eltern und Schulen geschehen. N2 - Within the last years keywords as war for talents and skills shortage constantly gained in importance. That is why private sector entities take actions to attract talents - meanwhile public sector entities hardly do so. Even though the combination of an over aged workforce, the decline of school graduates and their widely unattractive employer image carry the danger of a striking deficit of young talents for public sector entities. The following thesis therefore tries to answer the question how public sector entities already attract talents successfully and which critical success factors can be deduced from that. By the analysis of a best practice approach and based on the factors of success identified for the private sector the thesis develops the critical success factors for the attraction of talents for the public sector. The best practice approach is focused on the recruitment of school graduates for the apprenticeships of the public sector in Germany. It presents the activities of the city of Hamburg. The critical success factors basically comply with those identified for the private sector. That includes amongst others the existence of a strategic concept, the formulation of explicit and measurable goals and the systematic testing of the effectiveness and efficiency of both the attraction program in general and every single instrument. For public sector entities in addition it is indispensible to improve their employer image. When attracting young talents this should be done by the use of modern media, by providing an insight into public sector tasks and by involving parents and schools. T3 - Schriftenreihe für Public und Nonprofit Management - 5 KW - Personalmarketing KW - Verwaltung KW - Nachwuchskräfte KW - Erfolgsfaktoren KW - Recruiting KW - Public Sector Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51652 ER - TY - BOOK ED - Franzke, Jochen T1 - Europa als Inspiration und Herausforderung : sozialwissenschaftliche Sichten aus Deutschland und Polen N2 - Die Integration Europas bleibt für die Sozialwissenschaften eine Quelle der Inspiration und Herausforderung. Auch 53 Jahre nach Unterzeichnung der Römischen Verträge ist der Kontinent weiter in Bewegung, geht es um die Vision seiner zukünftigen Gestalt ebenso wie um die Regelung vielfältigster Tagesprobleme. Um zu dieser Debatte einen spezifischen Beitrag zu leisten, fand im Juni 2010 an der Universität Potsdam eine deutsch-polnische Konferenz zum Thema „Europa als Inspiration und Herausforderung aus sozialwissenschaftlicher Sicht“ statt. Dabei wurden unterschiedliche Ansätze der europawissenschaftlichen Forschungen in den beteiligten Einrichtungen (z. B. aus der Sicht von Politologen, Soziologen, Historikern oder Kulturwissenschaftlern) präsentiert. Zugleich diente die Konferenz dazu, das wissenschaftliche Forschungsinteresse am „nahen Osten“ wieder zu stärken. T3 - WeltTrends Papiere - 15 KW - Polen KW - Europäische Union KW - Deutschland KW - Integration KW - Vertiefung KW - Poland KW - European Union KW - Germany KW - Integration KW - Consolidation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48170 SN - 978-3-86956-095-3 ER - TY - THES A1 - Löwinger, Maria T1 - Sulforaphan und Selen : Einfluss auf Phase II Enzyme und Selenoproteine sowie deren Effekt auf die entzündungsvermittelte Dickdarmkanzerogenese T1 - Sulforaphane and Selenium : impact on phase II enzymes and selenoproteins, and the effect on the inflammation triggered colon carcinogenesis N2 - Das ITC SFN und der Mikronährstoff Se sind bekannt als chemopräventive Inhaltsstoffe von Gemüse der Brassica-Familie, welcher auch Brokkoli angehört. Die Wirkungen von sowohl SFN als auch Se beruhen auf zahlreichen verschiedenen Mechanismen. Es existieren jedoch Schnittstellen, an welchen Interaktionen beider Substanzen möglich sind. Basierend auf diesem Wissen wurden in dieser Arbeit Wechselwirkungen zwischen SFN und Se auf die Aktivität sowie Expression von Phase II Enzymen und Selenoproteinen untersucht. Der Einfluss der Kombination von SFN und Se auf die unter physiologischen Bedingungen stattfindende Proliferation und Apoptose war ebenso Gegenstand der Arbeit wie die Modulation von Entzündungsprozessen sowie der Tumorentstehung während der entzündungsverstärkten Colonkanzerogenese im Mausmodell. Das hinsichtlich seiner Wirksamkeit mit aus GRA hydrolysiertem SFN zunächst als vergleichbar befundene synthetische SFN wurde für die Untersuchung im AOM/DSS-induzierten Colontumormodell gewählt und in Kombination mit 3 verschiedenen Selendiäten verabreicht. Der Einfluss von SFN und Se auf Phase II Enzyme und Selenoproteine entlang des GIT war organabhängig und nach 4 Wochen geringer als nach 7 Tagen. Die schwächere Induktion deutet auf eine Anpassung des Organismus hin. Ein SFN-vermittelter Effekt auf NQO1 war im Selenmangel am deutlichsten. Die Aktivität des Selenoproteins TrxR wurde hingegen erst bei ausreichender Selenversorgung durch SFN beeinflusst. Die als Nrf2-Zielgen bekannte und in der Hierarchie der Selenoproteine einen hohen Rang einnehmende GPx2 konnte in bestimmten Organen bereits unter selenarmen Bedingungen durch SFN induziert werden. Eine Überexpression des Enzyms war jedoch nicht möglich. SFN steigerte, unabhängig vom Selenstatus, im oberen Abschnitt des GIT und im Colon die Aktivität der GST. Eine Induktion des eigenen Metabolismus wäre somit denkbar. Im Falle eines Mangels an GPx2 wurde GPx1 bei hinreichender Selenversorgung stärker exprimiert, allerdings konnte sie die Funktion von GPx2 nicht völlig erset-zen. Im Selenmangel kann die Aktivitätssteigerung der TrxR im Dünndarm, dem Ab-schnitt der Selenabsorption, als ein Versuch der GPx2-Kompensation angesehen werden. SFN war nicht in der Lage, über eine Aktivierung des Nrf2/ARE-Signalweges kompensatorische Effekte zu induzieren. Apoptotische Prozesse wurden unter physiologischen Bedingungen nur marginal durch SFN und Se moduliert. Das elektrophile ITC konnte lediglich im Selenmangel Apoptose im luminalen Bereich der Colonkrypten induzieren. Die durch supranutritive Selenkonzentration induzierte Apoptose im Kryptengrund wurde nicht durch SFN beeinflusst. Einer bei Abwesenheit der GPx2 erhöhten Apoptoserate im Kryptengrund wirkte SFN bei adäquater Selenversorgung entgegen, war indessen proapoptotisch unter selendefizienten Konditionen. Der Einfluss von SFN auf die Entzündung war deutlich abhängig vom Selenstatus. Während SFN im Selenmangel anscheinend prooxidative Prozesse induzierte und die Entzündungssymptome verschlimmerte, wirkte es unter adäquatem Selenstatus an-tiinflammatorisch. Den vergleichsweise milden Grad der Entzündung im selensupplementierten Status konnte SFN nicht zusätzlich beeinflussen. SFN veränderte die Inzi-denz colorektaler Tumore nicht. Ein, die Tumorinitiation blockierender SFN-Effekt durch direkte Hemmung der metabolischen Aktivierung des Prokanzerogens im selenadäquaten Zustand scheint offensichtlich. Eine Überversorgung mit Se kann protektiv im Hinblick auf Entzündung oder Colonkanzerogenese sein, jedoch bewirkt SFN keinen zusätzlichen Schutz. Kombinationseffekte von SFN und Se in Bezug auf Phase II Enzyme, Selenoproteine und Apoptose sowie die entzündungsverstärkte Colonkanzerogenese sind nicht eindeutiger Natur und können, abhängig vom Endpunkt, synergistische oder antagonistische Züge aufweisen. Eine bei Selendefizienz deutlichere Wirkung von SFN kann mit Hilfe der gesteigerten Aktivierung von Nrf2 erklärt werden, dies muss jedoch nicht von Vorteil sein. Bei adäquater Selenversorgung kann SFN kurzfristig antiinflammatorische und antikanzerogene Prozesse induzieren. Von einer längerfristigen ständigen SFN-Aufnahme in Form von GRA-reichen Brassicacea ist jedoch abzuraten, da von einer Adaptation auszugehen ist. Die Wirkung von SFN innerhalb der komplexen Pflanzenmatrix bleibt Gegenstand zukünftiger Untersuchungen. N2 - Sulforaphane (SFN), a versatile actor derived from broccoli or other brassicaceae, is proposed to be a dietary anticarcinogen. Together with an adequate selenium status, it has been associated with a decreased risk for developing certain forms of cancer. In our mouse model, we investigate the influence of SFN and Se on the expression and activity of selenoproteins and phase II enzymes as well as the effects on inflammation triggered colon carcinogenesis. SFN increased NQO1 activity and protein expression significantly in the ileum, in both, Se-deficiently and Se-adequately fed animals. TrxR activity was increased in Se-adequately compared to Se-deficiently fed mice, SFN positively affected TrxR activity only in the former ones. An increase of GPx2 protein expression by SFN was observed in the ileum of mice of both diets. GPx1 reacts sensitively on Se supply. GST was the only enzyme analyzed being significantly increased by SFN on activity level in the colon. All AOM/DSS treated animals showed an inflammation, which was attenuated by SFN within Se-adequacy. In contrast, Se-deficient animals showed a more severe inflammation. The administration of SFN therefore seemed to enhance this even more and to be not beneficial in this case. SFN inhibited colon carcinogenesis in Se-adequate mice when being administered together with AOM. To summarize, both, GPx2 and TrxR, require selenium in order to be synthesized. In contrast to TrxR, the SFN-mediated induction of GPx2, the highest ranking selenoprotein, does not depend on additional selenium supply. Whereas distinct effects by SFN were observed in the ileum, only GST was influenced by SFN in the colon. SFN seems to induce its own metabolism. In conclusion, SFN and Se attenuate inflammation and colon carcinogenesis, preferably by means of up-regulating the endogenous defense system and inhibiting the metabolic activation of AOM. KW - Sulforaphan KW - Selen KW - Dickdarmkanzerogenese KW - Phase II Enzyme KW - Selenoproteine KW - sulforaphane KW - selenium KW - colon carcinogenesis KW - phase II enzymes KW - selenoproteins Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51862 ER - TY - THES A1 - Tronci, Giuseppe T1 - Synthesis, characterization, and biological evaluation of gelatin-based scaffolds T1 - Synthese, Charakterisierung und biologische Evaluierung Gelatine-basierter Scaffolds N2 - This work presents the development of entropy-elastic gelatin based networks in the form of films or scaffolds. The materials have good prospects for biomedical applications, especially in the context of bone regeneration. Entropy-elastic gelatin based hydrogel films with varying crosslinking densities were prepared with tailored mechanical properties. Gelatin was covalently crosslinked above its sol gel transition, which suppressed the gelatin chain helicity. Hexamethylene diisocyanate (HDI) or ethyl ester lysine diisocyanate (LDI) were applied as chemical crosslinkers, and the reaction was conducted either in dimethyl sulfoxide (DMSO) or water. Amorphous films were prepared as measured by Wide Angle X-ray Scattering (WAXS), with tailorable degrees of swelling (Q: 300-800 vol. %) and wet state Young’s modulus (E: 70 740 kPa). Model reactions showed that the crosslinking reaction resulted in a combination of direct crosslinks (3-13 mol.-%), grafting (5-40 mol.-%), and blending of oligoureas (16-67 mol.-%). The knowledge gained with this bulk material was transferred to the integrated process of foaming and crosslinking to obtain porous 3-D gelatin-based scaffolds. For this purpose, a gelatin solution was foamed in the presence of a surfactant, Saponin, and the resulting foam was fixed by chemical crosslinking with a diisocyanate. The amorphous crosslinked scaffolds were synthesized with varied gelatin and HDI concentrations, and analyzed in the dry state by micro computed tomography (µCT, porosity: 65±11–73±14 vol.-%), and scanning electron microscopy (SEM, pore size: 117±28–166±32 µm). Subsequently, the work focused on the characterization of the gelatin scaffolds in conditions relevant to biomedical applications. Scaffolds showed high water uptake (H: 630-1680 wt.-%) with minimal changes in outer dimension. Since a decreased scaffold pore size (115±47–130±49 µm) was revealed using confocal laser scanning microscopy (CLSM) upon wetting, the form stability could be explained. Shape recoverability was observed after removal of stress when compressing wet scaffolds, while dry scaffolds maintained the compressed shape. This was explained by a reduction of the glass transition temperature upon equilibration with water (dynamic mechanical analysis at varied temperature (DMTA)). The composition dependent compression moduli (Ec: 10 50 kPa) were comparable to the bulk micromechanical Young’s moduli, which were measured by atomic force microscopy (AFM). The hydrolytic degradation profile could be adjusted, and a controlled decrease of mechanical properties was observed. Partially-degraded scaffolds displayed an increase of pore size. This was likely due to the pore wall disintegration during degradation, which caused the pores to merge. The scaffold cytotoxicity and immunologic responses were analyzed. The porous scaffolds enabled proliferation of human dermal fibroblasts within the implants (up to 90 µm depth). Furthermore, indirect eluate tests were carried out with L929 cells to quantify the material cytotoxic response. Here, the effect of the sterilization method (Ethylene oxide sterilization), crosslinker, and surfactant were analyzed. Fully cytocompatible scaffolds were obtained by using LDI as crosslinker and PEO40 PPO20-PEO40 as surfactant. These investigations were accompanied by a study of the endotoxin material contamination. The formation of medical-grade materials was successfully obtained (<0.5 EU/mL) by using low-endotoxin gelatin and performing all synthetic steps in a laminar flow hood. N2 - Diese Arbeit beschreibt die Entwicklung Entropie-elastischer Gelatine-basierter Netzwerke als Filme und Scaffolds. Mögliche Anwendungen für die entwickelten Materialien liegen im biomedizinischen Bereich, insbesondere der Knochenregeneration. Im ersten Schritt der Arbeit wurden Entropie-elastische, Gelatine-basierte Hydrogel-Filme entwickelt, deren mechanische Eigenschaften durch die Veränderung der Quervernetzungsdichte eingestellt werden konnten. Dazu wurde Gelatine in Lösung oberhalb der Gel-Sol-Übergangstemperatur kovalent quervernetzt, wodurch die Ausbildung helikaler Konformationen unterdrückt wurde. Als Quervernetzer wurden Hexamethylendiisocyanat (HDI) oder Lysindiisocyanat ethylester (LDI) verwendet, und die Reaktionen wurden in Dimethylsulfoxid (DMSO) oder Wasser durchgeführt. Weitwinkel Röntgenstreuungs Spektroskopie (WAXS) zeigte, dass die Netzwerke amorph waren. Der Quellungsgrad (Q: 300-800 vol. %) und der Elastizitätsmodul (E: 70 740 kPa) konnten dabei durch die systematische Veränderung der Quervernetzungsdichte eingestellt werden. Die Analyse der Quervernetzungsreaktion durch Modellreaktionen zeigte, dass die Stabilisierung der Hydrogele sowohl auf kovalente Quervernetzungen (3-13 mol.-%) als auch auf Grafting von (5-40 mol.-%) und Verblendung mit Oligoharnstoffen (16-67 mol.-%) zurückgeführt werden kann. Die Erkenntnisse aus dem Umgang mit dem Bulk-Material wurden dann auf einen integrierten Prozess der Verschäumung und chemischen Quervernetzung transferiert, so dass poröse, dreidimensionale Scaffolds erhalten wurden. Dafür wurde eine wässrige Gelatinelösung in Gegenwart eines Tensids, Saponin, verschäumt, und durch chemische Quervernetzung mit einem Diisocyanat zu einem Scaffold fixiert. Die Scaffolds hergestellt mit unterschiedlichen Mengen HDI und Gelatine, wurden im trockenen Zustand mittels Mikro Computertomographie (µCT, Porosität: 65±11–73±14 vol.-%) und Rasterelektronenmikroskopie (SEM, Porengröße: 117±28–166±32) charakterisiert. Anschließend wurden die Scaffolds unter Bedingungen charakterisiert, die für biomedizinische Anwendungen relevant sind. Die Scaffolds nahmen große Mengen Wasser auf (H: 630 1680 wt.-%) bei nur minimalen Änderungen der äußeren Dimensionen. Konfokale Laser Scanning Mikroskopie zeigte, dass die Wasseraufnahme zu einer verminderten Porengröße führte (115±47–130±49 µm), wodurch die Formstabilität erklärbar ist. Eine Formrückstellung der Scaffolds wurde beobachtet, wenn Scaffolds im nassen Zustand komprimiert wurden und dann entlastet wurden, während trockene Proben in der komprimierten Formen blieben (kalte Deformation). Dieses Entropie-elastische Verhalten der nassen Scaffolds konnte durch die Verminderung der Glasübergangstemperatur des Netzwerks nach Wasseraufnahme erklärt werden (DMTA). Die zusammensetzungsabhängigen Kompressionsmoduli (Ec: 10 50 kPa) waren mit den mikromechanischen Young’s moduli vergleichbar, die mittels Rasterkraftmikroskopie (AFM) gemessen wurden. Das hydrolytische Degradationsprofil konnte variiert werden, und während des Abbaus kam es nur zu kontrolliert-graduellen Änderungen der mechanischen Eigenschaften. Während der Degradation konnte ein Anstieg der mittleren Porengröße beobachtet werden, was durch das Verschmelzen von Poren durch den Abbau der Wände erklärt werden kann. Die Endotoxinbelastung und die Zytotoxizität der Scaffolds wurden untersucht. Humane Haut-Fibroblasten wuchsen auf und innerhalb der Scaffolds (bis zu einer Tiefe von 90 µm). Indirekte Eluat-Tests mit L929 Mausfibroblasten wurden genutzt, um die Zytotoxizität der Materialien, insbesondere den Einfluss des Quervernetzertyps und des Tensids, zu bestimmen. Vollständig biokompatible Materialien wurden erzielt, wenn LDI als Quervernetzer und PEO40 PPO20-PEO40 als Tensid verwendet wurden. Durch den Einsatz von Gelatine mit geringem Endotoxin-Gehalt, und die Synthese in einer Sterilarbeitsblank konnten Materialien für medizinische Anwendungen (Endotoxin-Gehalt < 0.5 EU/mL) hergestellt werden. KW - Hydrogele KW - Polymer-Netzwerke KW - Gelatine KW - poröse Gerüste KW - Abbau KW - regenerative Medizin KW - hydrogels KW - polymer networks KW - gelatin KW - porous scaffolds KW - degradation KW - regenerative medicine Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49727 ER - TY - THES A1 - Wollina, Markus T1 - Das Leben in einem ostdeutschen Plattenbaugebiet aus der Perspektive seiner Einwohner : eine qualitative Studie in Strausberg-Hegermühle T1 - Life in an East German Plattenbau estate in the perspective of its inhabitants : a qualitative enquiry in Strausberg-Hegermühle N2 - Architektur und Städtebau des Sozialismus haben nach der politischen Wende der Jahre 1989-1991 einen erheblichen Wertungswandel erfahren. Insbesondere die in industrieller Bauweise errichteten Quartiere des komplexen Wohnungsbaus, die einstmals privilegierte Wohngegenden waren, haben heute oftmals den Ruf von „Ghettos“. Die vorliegende Arbeit möchte einen Beitrag dazu leisten, dieses Bild zu korrigieren und das öffentliche Image von Plattenbausiedlungen zu verbessern. Dazu wurde anhand des ostdeutschen Plattenbaugebietes Strausberg-Hegermühle untersucht, welche Faktoren die positive Identifikation der Bewohner mit ihrem Viertel begünstigen. Ziel der Arbeit ist, damit Anregungen für die Praxis lokal engagierter Bürger, Kommunalpolitiker, Wohnungsgesellschaften und Verwaltungen zu geben. Das Wohngebiet „Hegermühle“ in der brandenburgischen Mittelstadt Strausberg wurde in den 1980er Jahren gebaut. Die Bevölkerung Hegermühles war bis 1990 stark durch Mitarbeiter des Ministeriums für Nationale Verteidigung der Deutschen Demokratischen Republik geprägt. Die Wohnungen im Viertel waren wegen ihres hohen technischen Standards begehrt. Nach dem Ende der DDR erfuhr das Viertel einen starken Wandel seiner Sozialstruktur und bekam ein Image, das zwischen den Polen „graue Schlafstadt“ und „sozialer Brennpunkt“ angesiedelt ist. In diesem Wohngebiet wurde im zweiten Halbjahr 2009 eine qualitative Untersuchung durchgeführt. Neben mehreren in Bild- und Textform dokumentierten Feldexplorationen wurde eine Reihe von Interviews mit Personen geführt, die aktuell in Hegermühle wohnen oder früher dort wohnten. Die Auswahl der Interviewpartner erfolgte nach der Methode des Theoretical Sampling (Glaser/Strauss), wobei eine möglichst große Differenzierung des Samples nach Alter, Herkunft, Geschlecht und Beruf angestrebt wurde. Die Interviews wurden nach der Methode des Problemzentrierten Interviews (Witzel) geführt und auf Grundlage des Konzepts der Grounded Theory (Glaser/Strauss) ausgewertet. Für die Arbeit wurden acht Interviews ausgewählt, in denen die Interviewten Auskunft geben über die folgenden Themen: die Umstände ihres Zuzugs nach Hegermühle, die Entwicklung des Wohngebiets seitdem, das Image Hegermühles, ihr eigenes Verhältnis zum Viertel und die Perspektiven des Wohngebiets. Als Ergebnis der Arbeit lässt sich festhalten, dass die positive Identifikation mit dem Wohngebiet am stärksten durch die problematische Sozialstruktur behindert wird, die in hohem Maße von Arbeitslosigkeit und sozialen Desintegrationserscheinungen geprägt ist. Davon abgesehen überwiegen pragmatische Kriterien bei der Bewertung des Wohngebiets. Die gute infrastrukturelle Ausstattung Hegermühles mit Einkaufs-, Betreuungs- und Erholungsmöglichkeiten wurde von allen Befragten positiv hervorgehoben. Diese Faktoren sind jedoch genau so auch in anderen Orten zu finden und damit nicht geeignet, eine Identifikation mit einem spezifischen Ort zu befördern. Von den Befragten wurde daher auch mehrfach auf das Fehlen von Merkmalen hingewiesen, die Hegermühle auszeichnen und es von anderen Vierteln abheben. Dagegen war die Lokalidentität bei den Interviewpartnern am stärksten, die den Aufbau Hegermühles in den 1980er Jahren persönlich miterlebt haben. Die Arbeit schließt darum mit Überlegungen, wie diese Erfahrung einer Ortsgeschichte, die Bedeutung für die eigene Biografie hat, anderen Einwohnern vermittelt werden kann. Zwei mögliche Konzepte werden vorgeschlagen: a) die Erforschung und Vermittlung der Wohngebietsgeschichte, sowie b) die Schaffung und Pflege räumlicher Identifikationspunkte, die die lokale Geschichte, Landschaft und andere Besonderheiten des Viertels im Alltag erfahrbar machen. Beispielsweise können Kunstwerke im öffentlichen Raum oder Gedenktafeln als Anknüpfungspunkte einer ortsbezogenen Identität dienen und ein Gefühl persönlicher Verbundenheit mit dem Wohnort bestärken. Damit könnte unabhängig von pragmatischen Faktoren eine Bindung an den Ort begünstigt und die Bereitschaft der Einwohner erhöht werden, sich für die Verbesserung der Verhältnisse im Wohngebiet einzusetzen. N2 - The judgment on socialism’s architecture and urban design has undergone a large change since the political turn of the years 1989-1991. This is especially true for the industrially built housing estates of the complex housing program, which were once privileged residential areas, but which now have a reputation as “ghettos”. This paper is meant to contribute to the correction of this perception and to the improvement of the public image of “Plattenbau” housing estates. In order to achieve this, research was done in the East German housing estate Strausberg-Hegermühle to find factors which promote positive identification of residents with their neighbourhood. The paper aims at giving suggestions for the work of locally committed citizens, community politicians, residential housing companies and local administrations. The housing estate “Hegermühle” in the medium-sized Brandenburg town Strausberg was built in the 1980s. Until 1990, Hegermühle’s population was dominated by employees of the German Democratic Republic’s Ministry of National Defence. Apartments in the neighbourhood were sought after because of their high technical standard. After the GDR’s demise, the neighbourhood’s social structure changed profoundly. Today, its public image is located between the extremes “boring dormitory town” and “deprived area”. In the second half of 2009, a qualitative enquiry was conducted in this housing estate. Apart from field explorations, which were documented in text and image, a number of interviews was conducted with persons who were living or had formerly been living in Hegermühle. Interviewees were selected according to the method of theoretical sampling (Glaser/Strauss) with the goal of achieving a high differentiation of the sample in terms of age, descent, gender and profession. The interviews were conducted according to Witzel’s method of problem-centered interviews, and they were interpreted on the basis of Glaser’s & Strauss’ grounded theory concept. For this paper, eight interviews were selected, in which the interviewees speak about the following topics: the circumstances of their moving to Hegermühle, the neighbourhood’s development since then, the public image of Hegermühle, their own relationship with the neighbourhood and the housing estate’s future perspective. The results of the conducted research show that the largest obstacle for positive identification with the housing estate is its problematic social structure, which is highly dominated by unemployment and social disintegration. Apart from that, the housing estate is mostly judged by pragmatic criteria. The good infrastructure of Hegermühle, which includes facilities for shopping, child care and recreation, was emphasized by all interviewees. These factors though can be found in the same form in other places. Thus they are not able to serve as a base for identification with any specific place. That is why it was remarked by the interviewees that Hegermühle lacked distinguishing features which separate it from other neighbourhoods. In contrast, those interviewees who had personally witnessed the creation of Hegermühle in the 1980s showed the highest level of local identity. Because of this, the paper ends with reflections on how this experience of a local history of significance to one’s own biography can be shared by other residents. Two possible concepts are proposed: a) exploration and presentation of the housing estate’s history, and b) creation and preservation of spatial points of identification, which make the local history, landscape and other distinguishing features of the neighbourhood perceivable in everyday life. Public works of art or commemorative plaques for example could serve as links for a local identity and could strengthen a feeling of personal connection with the place of living. This could promote a local connection independent from pragmatic factors and increase the residents’ willingness to get involved in the improvement of their housing estate. KW - Qualitative Sozialforschung KW - Strausberg KW - Neubaugebiet KW - Regionale Identität KW - Stadtsoziologie KW - Qualitative enquiry KW - Strausberg KW - housing estate KW - local identity KW - urban sociology Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57913 ER - TY - THES A1 - Müller, Anja T1 - Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur T1 - How children interpret sentences with nur? : Experiments on the acquisition of information structure N2 - Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert. N2 - Challenging previous accounts of children’s comprehension of focus particles, this study investigated how 6-year-old, German-speaking children interpret sentences with the focus particle nur(‘only’). Five experiments examined 1) whether the surface position of the focus particle has an impact on the sentence comprehension and 2) which role an adequate context plays for a target-like interpretation of a nur-sentence. It is known that in English, up to age 7, sentences with only are not interpreted adult-like. Crain et al. (1992) attributed errors to incorrect scope restrictions of the FP; Paterson et al. (2003) argued that children do not process the contrast information and instead ignore the FP. As oppose to previous research, the present data showed that German-speaking children interpret nur-sentences target-like if the sentences were contextually embedded. Furthermore, the results showed that children performed better on nur-object sentences like Die Maus hat nur einen Ball (‘The mouse has only a ball.’) than on nur-subject sentences like Nur die Maus hat einen Ball. (‘Only the mouse has a ball.’). This study argues that the asymmetry in the interpretation of nur-sentences stems from information-structural characteristics. In particular, I postulate the topic-default account which claims that children recognize the subject of the sentence as the topic by default. As a consequence, children assign an incorrect information structure to sentences with nur before the subject. Finally, based on the empirical findings of this study and on the topic-default account, an acquisition model for the comprehension of sentences with the focus particle nur is developed and discussed. KW - Fokuspartikel KW - Informationsstruktur KW - Spracherwerb KW - Satzverständnis KW - focus particle KW - information structure KW - language acquisition KW - sentence comprehension Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57767 ER - TY - BOOK A1 - Smirnov, Sergey A1 - Reijers, Hajo A. A1 - Nugteren, Thijs A1 - Weske, Mathias T1 - Business process model abstraction : theory and practice N2 - Business process management aims at capturing, understanding, and improving work in organizations. The central artifacts are process models, which serve different purposes. Detailed process models are used to analyze concrete working procedures, while high-level models show, for instance, handovers between departments. To provide different views on process models, business process model abstraction has emerged. While several approaches have been proposed, a number of abstraction use case that are both relevant for industry and scientifically challenging are yet to be addressed. In this paper we systematically develop, classify, and consolidate different use cases for business process model abstraction. The reported work is based on a study with BPM users in the health insurance sector and validated with a BPM consultancy company and a large BPM vendor. The identified fifteen abstraction use cases reflect the industry demand. The related work on business process model abstraction is evaluated against the use cases, which leads to a research agenda. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 35 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41782 SN - 978-3-86956-054-0 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Bleßmann, Daniela T1 - Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter T1 - Dynamical influence on stratospheric ozone variability over the Arctic in early winter N2 - Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus. N2 - The ozone amount in early winter provides an indication of the ozone amount in late winter/early spring. The early winter amount is highly variable from year to year due to modification by subsidence, chemical loss and wave activity. This thesis shows that this variability is mainly caused by the dynamics during the Arctic polar vortex formation. Furthermore, it explains the still missing link between early and late winter ozone amount due to dynamics and chemistry. Observational ozone data from satellite based instruments, ozone probes and simulations are used for the investigation of the connection between the composition of the air and the ozone enclosed in the polar vortex. The simulations are calculated with the Lagrangian chemistry/transport model ATLAS. The over area (45–75°N) and time (August-November) averaged vertical component of the Eliassen-Palm flux at 100hPa points to a link between the early winter composition of the air enclosed in the polar vortex and the vortex formation phase. This is only valid for the lower stratosphere, because the component does not satisfy changing conditions for wave propagation throughout the stratosphere by itself. Due to this deficit a new integral quantity based on wave amplitude and properties of the Charney-Drazin criterion is defined to achieve an improvement with height. This new quantity connects the wave activity during vortex formation to the composition of air inside the vortex as well as the distribution of ozone over latitude. An enhanced wave activity leads to a higher proportion of ozone rich air from lower latitudes inside the polar vortex. But chemistry in autumn and early winter removes the interannual variability in the amount of ozone enclosed in the vortex induced by dynamical processes during the formation phase of the Artic polar vortex because ozone relaxes towards equilibrium. An estimation of how relevant these variable dynamical processes are for the Arctic winter ozone abundances is obtained by analysing which fraction of dynamically induced anomalies in ozone persists until mid winter. Model runs with the Lagrangian Chemistry-Transport-Model ATLAS for the winter 1999–2000 are used to assess the fate of ozone anomalies artificially introduced during the vortex formation phase. These runs provide detailed information about the persistence of the induced ozone variability over time, height and latitude. Overall, dynamically induced ozone variability from the vortex formation phase survives longer inside the polar vortex compared to outside and can not significantly contribute to mid-winter variability at levels above 750K potential temperature level. At lower levels increasingly larger fractions of the initial perturbation survive, reaching 90% at 450K potential temperature level. In this vertical range dynamical processes during the vortex formation phase are crucial for the ozone abundance in mid-winter. KW - Stratosphäre KW - Ozon KW - Variabilität KW - Dynamik KW - Chemie-Transport-Modell KW - stratosphere KW - ozone KW - variability KW - dynamics KW - chemistry-transport-model Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51394 ER - TY - THES A1 - Jamil, Abdlhamed T1 - Fernerkundung und GIS zur Erfassung, Modellierung und Visualisierung orientalischer Stadtstrukturen : das Beispiel Sanaa (Jemen) T1 - Acquisition, modelling and visualisation of oriental city structures with remote sensing and GIS : the case of Sanaa (Yemen) N2 - Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockengürtel mittels hochauflösender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden können. Daten von hochauflösenden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Gebäude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen können zur Erfassung von Urbanisierungsprozessen (Stadt- und Bevölkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung für touristische Anwendungen, für die Stadtplanung, für Lärmanalysen oder für die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Gebäudedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Gebäude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Geländedaten, ergänzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und für jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgeführt wurde. Zusätzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Flächen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schwächen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Geländemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Gebäude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort für die Klassifikation herrschenden ungünstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den höchsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse gehörende Fläche besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit kürzer und die Speicherkapazität geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-geführten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Gebäude möglich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enthält. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer räumlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu zählen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die für Sanaa typischen Hochhäuser werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere städtische Räume des Typus orientalische Stadt angewendet werden kann. N2 - This study aims at the development and implementation of a generic procedure for the acquisition, processing, analysis and cartographic visualisation of urban space in arid zone cities based on operational remote sensing imagery. As a proof of concept the Yemeni capital Sanaa has been selected as a use case. The workflow developed is based on standard procedures and systems of spatial information processing and allows for subsequent automation oft its essential processes. Today, high-resolution remote sensing data from operational satellite systems (such as QuickBird, Ikonos etc) facilitate the recognition and mapping of urban objects such as buildings, streets and even cars which, in the past could only be acquired by non-operational aerial photography. The satellite imagery can be used to generate maps and even 3D-representation of the urban space. Both maps and 3D-visualisations can be used for up-to-date land use mapping, zoning and urban planning purposes etc. The 3D-visualisation provides a deeper understanding of urban structures by integrating building height into the analysis. For this study remote sensing data of the Quickbird satellite data of 2005 were used. They show a section of the city of Sanaa in Yemen. The remote sensing data were supplemented and verified by other data, including terrain data. The image data are then subjected to thorough digital image. This procedure consists of a pixel-oriented classification of the satellite image acquisition at class level. In addition, a visual interpretation of the satellite image has been undertaken to identify and label individual objects (areas, surfaces, streets) etc. which were subsequently digitised. The town maps created in both procedures were merged to one. Through this combination of the results, the advantages of both maps are brought together and their respective weaknesses are eliminated or minimized. The digital collection of the contour lines on the orthophoto map of Sanaa allowed for the creation of a digital terrain model, which was used for the three-dimensional representation of Sanaa's historic district. The 3D-visualisation was created from the classification results as well as from the digital collection of the objects and the results of both visualisations were combined in a city map. In all classification procedures, paved roads, vegetation and single buildings were detected very well. The best overall results with the highest accuracy values achieved in the pixel-oriented classification at class level. Because each class has been classified separately, size belonging to that class can be better understood and optimised. The amount of data could be reduced, thus requiring less memory and resulting in a shorter processing time. The evaluation and validation of the pixel-oriented visual classification results at class level with the original satellite imagery was designed more simply and more accurately than other classification methods implemented. It was also possible by the separate recording of the class building to create a 3D-visualisation. A comparison of the maps created found that the map created from visual interpretation contains more information. The map based on pixel-oriented classification results at class level proved to be less labor- and time-consuming, and the structure of an oriental city with the main features will be worked out better. The 2D-maps and the 3D-visualisation provide a different spatial impression, and certain elements of an oriental city clearly detectable. These include the characteristic dead ends in the old town and the former city wall. The typical high-rise houses of Sanaa are detected in the 3D-visualisation. This work developed a generic procedure to detect, analyse and visualise urban structures in arid zone environments. The city of Sanaa served as a proof of concept. The results show that the workflow developed is instrumental in detecting typical structures of oriental cities. The results achieved in the case study Sanaa prove that the process can be adapted to the investigation of other arid zone cities in the Middle East with minor modifications. KW - Fernerkundung KW - 3D-Visualisierung KW - Klassifikation KW - 2D-Stadtmodell KW - orientalische Stadt KW - remote sensing KW - 3D visualization KW - classification KW - 2D city model KW - oriental city Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50200 ER - TY - THES A1 - Blum, Niklas T1 - Formalization of a converged internet and telecommunications service environment T1 - Formalisierung einer konvergenten Telekommunikations- undInternet-Dienstumgebung N2 - The programmable network envisioned in the 1990s within standardization and research for the Intelligent Network is currently coming into reality using IPbased Next Generation Networks (NGN) and applying Service-Oriented Architecture (SOA) principles for service creation, execution, and hosting. SOA is the foundation for both next-generation telecommunications and middleware architectures, which are rapidly converging on top of commodity transport services. Services such as triple/quadruple play, multimedia messaging, and presence are enabled by the emerging service-oriented IPMultimedia Subsystem (IMS), and allow telecommunications service providers to maintain, if not improve, their position in the marketplace. SOA becomes the de facto standard in next-generation middleware systems as the system model of choice to interconnect service consumers and providers within and between enterprises. We leverage previous research activities in overlay networking technologies along with recent advances in network abstraction, service exposure, and service creation to develop a paradigm for a service environment providing converged Internet and Telecommunications services that we call Service Broker. Such a Service Broker provides mechanisms to combine and mediate between different service paradigms from the two domains Internet/WWW and telecommunications. Furthermore, it enables the composition of services across these domains and is capable of defining and applying temporal constraints during creation and execution time. By adding network-awareness into the service fabric, such a Service Broker may also act as a next generation network-to-service element allowing the composition of crossdomain and cross-layer network and service resources. The contribution of this research is threefold: first, we analyze and classify principles and technologies from Information Technologies (IT) and telecommunications to identify and discuss issues allowing cross-domain composition in a converging service layer. Second, we discuss service composition methods allowing the creation of converged services on an abstract level; in particular, we present a formalized method for model-checking of such compositions. Finally, we propose a Service Broker architecture converging Internet and Telecom services. This environment enables cross-domain feature interaction in services through formalized obligation policies acting as constraints during service discovery, creation, and execution time. N2 - Das programmierbare Netz, das Ende des 20. Jahrhunderts in der Standardisierung und Forschung für das Intelligente Netz entworfen wurde, wird nun Realität in einem auf das Internet Protokoll basierendem Netz der nächsten Generation (Next Generation Network). Hierfür kommen Prinzipien aus der Informationstechnologie, insbesondere aus dem Bereich dienstorientierte Architekturen (Service-Oriented Architecture / SOA) für die Diensterstellung, -ausführung und -betrieb zum Tragen. SOA bietet hierbei die theoretische Grundlage für Telekommunikationsnetze, vor allem jedoch für die dazugehörigen Dienstplattformen. Diese erlauben dem Telekommunikationsbetreiber seine Position in einem offenen Marktplatz der Dienste auszubauen. Dazu bedarf es allerdings möglichst flexibler Dienstumgebungen, die die Kooperation zwischen Dienstanbietern und Nutzern aus unterschiedlichsten Domänen durch Unterstützung geeigneter Werkzeuge und Mechanismen fördert. Im Rahmen dieser Dissertation definieren wir aufbauend auf Forschungsergebnisse im Bereich Overlay-Netze, Netzabstraktion und Zugriff auf exponierte Dienste eine Service Broker genannte Dienstumgebung für konvergente Internet- und Telekommunikationsdienste. Dieser Service Broker stellt Mechanismen für die Komposition von Diensten und Mediation zwischen unterschiedlichen Dienstparadigmen und Domänenspezifika beim Dienstaufruf zur Verfügung. Der Forschungsbeitrag dieser Arbeit findet auf unterschiedlichen Ebenen statt: Aufbauend auf einer Analyse und Klassifikation von Technologien und Paradigmen aus den Bereichen Informationstechnologie (IT) und Telekommunikation diskutieren wir die Problemstellung der Kooperation von Diensten und deren Komposition über Domänengrenzen hinweg. In einem zweiten Schritt diskutieren wir Methoden der Dienstkomposition und präsentieren eine formalisierte Methode der modellbasierten Diensterstellung. Der Schwerpunkt der Arbeit liegt auf der Spezifikation der Service Broker Dienstumgebung und einem zugrundeliegenden Informations- und Datenmodell. Diese Architektur erlaubt die Komposition und Kooperation von Diensten über Domänengrenzen hinweg, um konvergente Internet- und Telekommunikationsdienste zu realisieren. Hierfür wird ein auf Obligationspolitiken basierendes Regelsystemformalisiert, das Interaktionen zwischen Dienstmerkmalen während der Diensterstellung und -ausführung definiert. KW - Telekommunikation KW - konvergente Dienste KW - Next Generation Network KW - Dienstplattform KW - Dienstkomposition KW - Service Delivery Platform KW - Next Generation Network KW - Service Creation KW - Service convergence KW - Policy Enforcement Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51146 ER - TY - THES A1 - Kummer, Michael T1 - Die Fußballclubs Rot-Weiß Erfurt und Carl Zeiss Jena und ihre Vorgänger in der DDR : ein Vergleich ihrer Bedingungen T1 - The football clubs Rot-Weiss Erfurt and Carl Zeiss Jena and its predecessors in the GDR : a comparison of their conditions N2 - Der SC Motor/FC Carl Zeiss Jena war seit Ende der 50-er Jahre bis in die 80-er Jahre hinein ein vom DFV der DDR und vom DTSB immer wieder benannter und bestätigter Schwerpunktclub innerhalb der sogenannten zivilen Clubs. Der SC Turbine/FC Rot-Weiß Erfurt konnte diesen Status innerhalb des Fußballverbands dagegen nie erreichen. Die zentrale Frage dieser Dissertation nach den spezifischen Bedingungsgefügen des zivilen Schwerpunktclubs FC Carl Zeiss Jena (und Vorgänger) und des zivilen Nichtschwerpunktclubs FC Rot-Weiß Erfurt (und Vorgänger) im DDR-Fußballsystem ergab sich aus dieser unterschiedlichen Privilegierung und den ungleichen Erfolgsbilanzen dieser beiden Clubs. Die Hypothese der komparativ angelegten Fallstudie vermutete einen unmittelbaren Zusammenhang zwischen diesen deutlich sichtbaren Erfolgsunterschieden der beiden Mannschaften in der DDR und den erfolgten Schwerpunktfestlegungen. Zusätzlich konnte vermutet werden, dass ein beträchtlicher Anteil an den Jenaer Erfolgen auf die besonders starke Unterstützung des wirtschaftlich mächtigen VEB Carl Zeiss Jena zurückzuführen war. Um diesen Zusammenhängen nachzugehen, fragte der Autor nach den konkreten Bevorzugungen des Jenaer Schwerpunktclubs und den Benachteiligungen des Erfurter Nichtschwerpunktclubs und nach den spezifischen Bedingungen und Handlungsspielräumen der beiden Thüringer Mannschaften in der DDR. Daraus ergaben sich eine Reihe von detaillierten, auf einen Vergleich der verschiedenen Bedingungen in Erfurt und in Jena hin orientierte, Fragen, welche in der vorliegenden Untersuchung detailliert beantwortet werden: Wie sah die besondere Förderung des DFV bzw. des DTSB für einen Schwerpunktclub wie Jena überhaupt aus? Wer nahm Einfluss auf die Clubs, von wem waren diese abhängig, wer förderte sie durch welche Leistungen? Wie wurden diese Beschlüsse vor Ort umgesetzt? Wer waren die Trägerbetriebe und in welchem Maße und wodurch engagierten sich diese für den Fußball in Erfurt und Jena? Wie kamen die häufigen Wechsel der besten Spieler Erfurts nach Jena zustande? Warum war die Richtung dieser Wechsel insgesamt einseitig in Richtung Jena? Welche finanziellen, materiellen und sozialen Bedingungen konnten den Spielern in Jena und Erfurt geboten werden? Die vorliegenden Ergebnisse dieser erstmals für die zivilen Clubs auf der Mikroperspektive angelegten systematischen Untersuchung bestätigen das bereits von Hans Joachim Teichler als grundlegend für den DDR-Fußball beschriebene Konfliktmuster des „Fußball-Lokalpatriotismus versus Parteiräson“. Eigenmächtige Handlungen vieler Betriebsleiter und zahlreicher Partei- und Gewerkschaftsfunktionäre in den Trägerbetrieben konnten beispielsweise in Erfurt bei der eigenmächtigen Erhöhung der Aufnahmezahlen von Fußballern an die KJS Erfurt oder in Jena bei der Anstellung der Fußballer im Zeisswerk nachgewiesen werden. Das am sowjetischen Vorbild orientierte Sportsystem der DDR mit seinen engen Bindungen an die Trägerbetriebe provozierte geradezu verdeckte Zuwendungen der Betriebe, die über die Clubs an die Spieler weitergereicht wurden. Für die zentralen Instanzen des DDR-Fußballs war das ein Dauerproblem, weil sich damit ein Großteil der Vorgänge vor Ort der Steuerung entzog. Wie in der vorliegenden Arbeit beschrieben wird, war genau dies jedoch der Schlüssel für den Erfolg des SC Motor/FC Carl Zeiss Jena vom Ende der 50-er bis in den Anfang der 80-er Jahre bzw. für den vergleichsweisen Misserfolg des SC Turbine/FC Rot-Weiß Erfurt im gleichen Zeitraum. Dass letztlich die finanziellen, materiellen und sozialen Möglichkeiten die entscheidende Gründe für die Spieler waren, zu einem anderen Club oder einer BSG zu wechseln, mithin demnach Marktmechanismen, und hier in erster Linie der Grund für die Stärke des SC Motor/FC Carl Zeiss Jena zu suchen ist, ist eine zentrale Erkenntnis dieser Arbeit. N2 - The SC Motor/FC Carl Zeiss Jena was in the late 50's to the 80's one of the DFV der DDR and of the DTSB repeatedly nominated and confirmed priority club within the so-called civilian clubs. The SC Turbine/FC Rot-Weiss Erfurt could never reach this status within the Football Association. The central question of this thesis to the specific structure of conditions of the civilian priority club FC Carl Zeiss Jena (and earlier) and of the civilian non-focal clubs FC Rot-Weiss Erfurt (and earlier) in the East German football system resulted from these different privileges, and the uneven track records of these two clubs. The hypothesis of the comparative case study to suspected a direct relationship between these highly visible success differences between the two teams in the East and made the key requirements. Additionally it was suggested that a significant proportion of the Jena successes to the particularly strong support of the economically powerful VEB Carl Zeiss Jena was due. To investigate these relationships, the author asked about the specific preferences of the Jena focal club and the disadvantages of the Erfurt non-focal clubs and on the specific conditions and scope for action of the two Thuringian teams in the GDR. This resulted in a series of detailed, based on a comparison of the different conditions in Erfurt and Jena out questions that are answered in detail in this study: What was the specific support of the DFV or the DTSB for a priority club like Jena at all from? Who took effect on the club, by whom they were dependent on who they supported by what is included? How these decisions were implemented on site? Who were the carrier companies and to what extent and how dedicated these for football in Erfurt and Jena? How did the frequent change of the best players reached Erfurt in Jena? Why was the overall direction of these changes unilaterally in the direction of Jena? What financial, material and social conditions were the players in Jena and Erfurt are offered? The present results of this first time to the civilian clubs at the micro-perspective scale systematic study to confirm the already by Hans Joachim Teichler as fundamental to the East German football described patterns of conflict of "Football local patriotism versus party argue." Unauthorized actions of many managers and many party and union officials in the support operations for example, could be detected in Erfurt at the arbitrary increase in the numbers of pictures of football players at the KJS Erfurt in Jena or to the appointing of the footballers in the Zeiss factory. The Soviet model based on the GDR sports system provoked by his close ties to the carrier companies almost hidden benefits of companies that have been passed down through the clubs to the players. For the central authorities of the East German football was a constant problem because it deprived a large part of the operations of local control. As described in the present work, exactly that was, however, the key to the success of the SC Motor/FC Carl Zeiss Jena of the late 50's until the early 80's and for the comparative failure of the SC Turbine/FC Rot-Weiss Erfurt in the same period. That were the financial, physical and social opportunities the key reason for the players, ultimately, to move to another club or BSG, consequently, therefore market mechanisms, and this is primarily the reason for the strength of the SC Motor/FC Carl Zeiss Jena looking for is is a central finding of this study. KW - DDR-Fußball KW - FC Rot-Weiß Erfurt KW - FC Carl Zeiss Jena KW - Turbine Erfurt KW - Motor Jena KW - GDR-football KW - FC Rot-Weiss Erfurt KW - FC Carl Zeiss Jena KW - Turbine Erfurt KW - Motor Jena Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51065 ER - TY - THES A1 - Schattauer, Sylvia T1 - Hybride Dünnschicht-Solarzellen aus mesoporösem Titandioxid und konjugierten Polymeren T1 - Hybrid thin solar cells comprising mesoporous titanium dioxide and conjugated polymers N2 - Das Ziel dieser Arbeit ist die Untersuchung der aktiven Komponenten und ihrer Wechselwirkungen in teilorganischen Hybrid-Solarzellen. Diese bestehen aus einer dünnen Titandioxidschicht, kombiniert mit einer dünnen Polymerschicht. Die Effizienz der Hybrid-Solarzellen wird durch die Lichtabsorption im Polymer, die Dissoziation der gebildeten Exzitonen an der aktiven Grenzfläche zwischen TiO2 und Polymer, sowie durch Generation und Extraktion freier Ladungsträger bestimmt. Zur Optimierung der Solarzellen wurden grundlegende physikalische Wechselwirkungen zwischen den verwendeten Materialen sowie der Einfluss verschiedener Herstellungsparameter untersucht. Unter anderem wurden Fragen zum optimalen Materialeinsatz und Präparationsbedingungen beantwortet sowie grundlegende Einflüsse wie Schichtmorphologie und Polymerinfiltration näher betrachtet. Zunächst wurde aus unterschiedlich hergestelltem Titandioxid (Akzeptor-Schicht) eine Auswahl für den Einsatz in Hybrid-Solarzellen getroffen. Kriterium war hierbei die unterschiedliche Morphologie aufgrund der Oberflächenbeschaffenheit, der Film-Struktur, der Kristallinität und die daraus resultierenden Solarzelleneigenschaften. Für die anschließenden Untersuchungen wurden mesoporöse TiO2–Filme aus einer neuen Nanopartikel-Synthese, welche es erlaubt, kristalline Partikel schon während der Synthese herzustellen, als Elektronenakzeptor und konjugierte Polymere auf Poly(p-Phenylen-Vinylen) (PPV)- bzw. Thiophenbasis als Donatormaterial verwendet. Bei der thermischen Behandlung der TiO2-Schichten erfolgt eine temperaturabhängige Änderung der Morphologie, jedoch nicht der Kristallstruktur. Die Auswirkungen auf die Solarzelleneigenschaften wurden dokumentiert und diskutiert. Um die Vorteile der Nanopartikel-Synthese, die Bildung kristalliner TiO2-Partikel bei tiefen Temperaturen, nutzen zu können, wurden erste Versuche zur UV-Vernetzung durchgeführt. Neben der Beschaffenheit der Oxidschicht wurde auch der Einfluss der Polymermorphologie, bedingt durch Lösungsmittelvariation und Tempertemperatur, untersucht. Hierbei konnte gezeigt werden, dass u.a. die Viskosität der Polymerlösung die Infiltration in die TiO2-Schicht und dadurch die Effizienz der Solarzelle beeinflusst. Ein weiterer Ansatz zur Erhöhung der Effizienz ist die Entwicklung neuer lochleitender Polymere, welche möglichst über einen weiten spektralen Bereich Licht absorbieren und an die Bandlücke des TiO2 angepasst sind. Hierzu wurden einige neuartige Konzepte, z.B. die Kombination von Thiophen- und Phenyl-Einheiten näher untersucht. Auch wurde die Sensibilisierung der Titandioxidschicht in Anlehnung an die höheren Effizienzen der Farbstoffzellen in Betracht gezogen. Zusammenfassend konnten im Rahmen dieser Arbeit wichtige Einflussparameter auf die Funktion hybrider Solarzellen identifiziert und z.T. näher diskutiert werden. Für einige limitierende Faktoren wurden Konzepte zur Verbesserung bzw. Vermeidung vorgestellt. N2 - The main objective of this thesis is to study the active components and their interactions in so called organic hybrid solar cells. These consist of a thin inorganic titanium dioxide layer, combined with a polymer layer. In general, the efficiency of these hybrid solar cells is determined by the light absorption in the donor polymer, the dissociation of excitons at the heterojunction between TiO2 and polymer, as well as the generation and extraction of free charge carriers. To optimize the solar cells, the physical interactions between the materials are modified and the influences of various preparation parameters are systematically investigated. Among others, important findings regarding the optimal use of materials and preparation conditions as well as detailed investigations of fundamental factors such as film morphology and polymer infiltration are presented in more detail. First, a variety of titanium dioxide layer were produced, from which a selection for use in hybrid solar cells was made. The obtained films show differences in surface structure, film morphology and crystallinity, depending on the way how the TiO2 layer has been prepared. All these properties of the TiO2 films may strongly affect the performance of the hybrid solar cells, by influencing e.g. the exciton diffusion length, the efficiency of exciton dissociation at the hybrid interface, and the carrier transport properties. Detailed investigations were made for mesoporous TiO2 layer following a new nanoparticle synthesis route, which allows to produce crystalline particles during the synthesis. As donor component, conjugated polymers, either derivatives of cyclohexylamino-poly(p-phenylene vinylene) (PPV) or a thiophene are used. The preparation routine also includes a thermal treatment of the TiO2 layers, revealing a temperature-dependent change in morphology, but not of the crystal structure. The effects on the solar cell properties have been documented and discussed. To take advantage of the nanoparticle synthesis, the formation of crystalline TiO2 particles by UV crosslinking and first solar cell measurements are presented. In addition to the nature of the TiO2 layer, the influence of polymer morphology is investigated. Different morphologies are realized by solvent variation and thermal annealing. It is shown that, among other factors, the viscosity of the polymer solution and the infiltration into the TiO2 layer mainly affects the efficiency of the solar cell. Another approach to increase the efficiency is the development of new hole-conducting polymers that absorb over a wide spectral range and which are adjusted to the energy levels of TiO2. Also new concepts, for example, the combination of thiophene- and phenyl-units into a copolymer are investigated in more detail. In summary, important parameters influencing the properties of hybrid solar cells are identified and discussed in more detail. For some limiting factors concepts to overcome these limitations are presented. KW - hybride Solarzellen KW - Titandioxid KW - Sintern KW - Polymer KW - hybrid thin solar cells KW - titanium dioxide KW - thermal treatment KW - polymers Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52619 ER - TY - THES A1 - Shirzaei, Manoochehr T1 - Crustal deformation source monitoring using advanced InSAR time series and time dependent inverse modeling T1 - Monitoring der Quellen von Krustendeformationen mit Hilfe modernster InSAR Zeitreihen und zeitabhängiger inverser Modellierung N2 - Crustal deformation can be the result of volcanic and tectonic activity such as fault dislocation and magma intrusion. The crustal deformation may precede and/or succeed the earthquake occurrence and eruption. Mitigating the associated hazard, continuous monitoring of the crustal deformation accordingly has become an important task for geo-observatories and fast response systems. Due to highly non-linear behavior of the crustal deformation fields in time and space, which are not always measurable using conventional geodetic methods (e.g., Leveling), innovative techniques of monitoring and analysis are required. In this thesis I describe novel methods to improve the ability for precise and accurate mapping the spatiotemporal surface deformation field using multi acquisitions of satellite radar data. Furthermore, to better understand the source of such spatiotemporal deformation fields, I present novel static and time dependent model inversion approaches. Almost any interferograms include areas where the signal decorrelates and is distorted by atmospheric delay. In this thesis I detail new analysis methods to reduce the limitations of conventional InSAR, by combining the benefits of advanced InSAR methods such as the permanent scatterer InSAR (PSI) and the small baseline subsets (SBAS) with a wavelet based data filtering scheme. This novel InSAR time series methodology is applied, for instance, to monitor the non-linear deformation processes at Hawaii Island. The radar phase change at Hawaii is found to be due to intrusions, eruptions, earthquakes and flank movement processes and superimposed by significant environmental artifacts (e.g., atmospheric). The deformation field, I obtained using the new InSAR analysis method, is in good agreement with continuous GPS data. This provides an accurate spatiotemporal deformation field at Hawaii, which allows time dependent source modeling. Conventional source modeling methods usually deal with static deformation field, while retrieving the dynamics of the source requires more sophisticated time dependent optimization approaches. This problem I address by combining Monte Carlo based optimization approaches with a Kalman Filter, which provides the model parameters of the deformation source consistent in time. I found there are numerous deformation sources at Hawaii Island which are spatiotemporally interacting, such as volcano inflation is associated to changes in the rifting behavior, and temporally linked to silent earthquakes. I applied these new methods to other tectonic and volcanic terrains, most of which revealing the importance of associated or coupled deformation sources. The findings are 1) the relation between deep and shallow hydrothermal and magmatic sources underneath the Campi Flegrei volcano, 2) gravity-driven deformation at Damavand volcano, 3) fault interaction associated with the 2010 Haiti earthquake, 4) independent block wise flank motion at the Hilina Fault system, Kilauea, and 5) interaction between salt diapir and the 2005 Qeshm earthquake in southern Iran. This thesis, written in cumulative form including 9 manuscripts published or under review in peer reviewed journals, improves the techniques for InSAR time series analysis and source modeling and shows the mutual dependence between adjacent deformation sources. These findings allow more realistic estimation of the hazard associated with complex volcanic and tectonic systems. N2 - Oberflächendeformationen können eine Folge von vulkanischen und tektonischen Aktivitäten sein, wie etwa Plattenverschiebungen oder Magmaintrusion. Die Deformation der Erdkruste kann einem Erdbeben oder einem Vulkanausbruch vorausgehen und/oder folgen. Um damit drohende Gefahren für den Menschen zu verringern, ist die kontinuierliche Beobachtung von Krustendeformationen eine wichtige Aufgabe für Erdobservatorien und Fast-Responce-Systems geworden. Auf Grund des starken nicht-linearen Verhaltens von Oberflächendeformationsgebiet in Zeit und Raum, die mit konventionellen Methoden nicht immer erfasst werden (z.B., Nivellements), sind innovative Beobachtungs- und Analysetechniken erforderlich. In dieser Dissertation beschreibe ich Methoden, welche durch Mehrfachbeobachtungen der Erdoberfläche nit satellitengestützem Radar eine präzise und akkurate Abbildung der raumzeitlichen Oberflächendeformationen ermöglichen. Um die Bildung und Entwicklung von solchen raumzeitlichen Deformationsgebieten besser zu verstehen, zeige ich weiterhin neuartige Ansätze zur statischen und zeitabhängigen Modellinversion. Radar-Interferogramme weisen häufig Gebiete auf, in denen das Phasensignal dekorreliert und durch atmosphärische Laufzeitverzögerung verzerrt ist. In dieser Arbeit beschreibe ich wie Probleme des konventionellen InSAR überwunden werden können, indem fortgeschrittene InSAR-Methoden, wie das Permanent Scatterer InSAR (PSI) und Small Baseline Subsets (SBAS), mit einer Wavelet-basierten Datenfilterung verknüpft werden. Diese neuartige Analyse von InSAR Zeitreihen wird angewendet, um zum Beispiel nicht-lineare Deformationsprozesse auf Hawaii zu überwachen. Radar-Phasenänderungen, gemessen auf der Pazifikinsel, beruhen auf Magmaintrusion, Vulkaneruption, Erdbeben und Flankenbewegungsprozessen, welche durch signifikante Artefakte (z.B. atmosphärische) überlagert werden. Mit Hilfe der neuen InSAR-Analyse wurde ein Deformationsgebiet ermittelt, welches eine gute Übereinstimmung mit kontinuierlich gemessenen GPS-Daten aufweist. Auf der Grundlage eines solchen, mit hoher Genauigkeit gemessenen, raumzeitlichen Deformationsgebiets wird für Hawaii eine zeitabhängige Modellierung der Deformationsquelle ermöglicht. Konventionelle Methoden zur Modellierung von Deformationsquellen arbeiten normalerweise mit statischen Daten der Deformationsgebiete. Doch um die Dynamik einer Deformationsquelle zu untersuchen, sind hoch entwickelte zeitabhängige Optimierungsansätze notwendig. Dieses Problem bin ich durch eine Kombination von Monte-Carlo-basierten Optimierungsansätzen mit Kalman-Filtern angegangen, womit zeitlich konsistente Modellparameter der Deformationquelle gefunden werden. Ich fand auf der Insel Hawaii mehrere, raumzeitlich interagierende Deformationsquellen, etwa Vulkaninflation verknüpft mit Kluftbildungen und Veränderungen in bestehenden Klüften sowie zeitliche Korrelationen mit stillen Erdbeben. Ich wendete die neuen Methoden auf weitere tektonisch und vulkanisch aktive Gebiete an, wo häufig die eine Interaktion der Deformationsquellen nachgewiesen werden konnte und ihrer bedeutung untersucht wurde. Die untersuchten Gebiete und Deformationsquellen sind 1) tiefe und oberflächliche hydrothermale und magmatische Quellen unterhalb des Campi Flegrei Vulkans, 2) gravitationsbedingte Deformationen am Damawand Vulkan, 3) Störungsdynamik in Verbindung mit dem Haiti Beben im Jahr 2010, 4) unabhängige blockweise Flankenbewegung an der Hilina Störungszone, und 5) der Einfluss eines Salzdiapirs auf das Qeshm Erdbeben im Süd-Iran im Jahr 2005. Diese Dissertation, geschrieben als kumulative Arbeit von neun Manuskripten, welche entweder veröffentlicht oder derzeit in Begutachtung bei ‘peer-review’ Zeitschriften sind, technische Verbesserungen zur Analyse von InSAR Zeitreihen vor sowie zur Modellierung von Deformationsquellen. Sie zeigt die gegenseitige Beeinflussung von benachbarten Deformationsquellen, und sie ermöglicht, realistischere Einschätzungen von Naturgefahren, die von komplexen vulkanischen und tektonischen Systemen ausgehen. KW - InSAR KW - Vulkan KW - Erdbeben KW - inverse Modellierung KW - InSAR KW - Vulcano KW - earthquake KW - inverse modeling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50774 ER - TY - THES A1 - Brauer, Falk T1 - Extraktion und Identifikation von Entitäten in Textdaten im Umfeld der Enterprise Search T1 - Extraction and identification of entities in text data in the field of enterprise search N2 - Die automatische Informationsextraktion (IE) aus unstrukturierten Texten ermöglicht völlig neue Wege, auf relevante Informationen zuzugreifen und deren Inhalte zu analysieren, die weit über bisherige Verfahren zur Stichwort-basierten Dokumentsuche hinausgehen. Die Entwicklung von Programmen zur Extraktion von maschinenlesbaren Daten aus Texten erfordert jedoch nach wie vor die Entwicklung von domänenspezifischen Extraktionsprogrammen. Insbesondere im Bereich der Enterprise Search (der Informationssuche im Unternehmensumfeld), in dem eine große Menge von heterogenen Dokumenttypen existiert, ist es oft notwendig ad-hoc Programm-module zur Extraktion von geschäftsrelevanten Entitäten zu entwickeln, die mit generischen Modulen in monolithischen IE-Systemen kombiniert werden. Dieser Umstand ist insbesondere kritisch, da potentiell für jeden einzelnen Anwendungsfall ein von Grund auf neues IE-System entwickelt werden muss. Die vorliegende Dissertation untersucht die effiziente Entwicklung und Ausführung von IE-Systemen im Kontext der Enterprise Search und effektive Methoden zur Ausnutzung bekannter strukturierter Daten im Unternehmenskontext für die Extraktion und Identifikation von geschäftsrelevanten Entitäten in Doku-menten. Grundlage der Arbeit ist eine neuartige Plattform zur Komposition von IE-Systemen auf Basis der Beschreibung des Datenflusses zwischen generischen und anwendungsspezifischen IE-Modulen. Die Plattform unterstützt insbesondere die Entwicklung und Wiederverwendung von generischen IE-Modulen und zeichnet sich durch eine höhere Flexibilität und Ausdrucksmächtigkeit im Vergleich zu vorherigen Methoden aus. Ein in der Dissertation entwickeltes Verfahren zur Dokumentverarbeitung interpretiert den Daten-austausch zwischen IE-Modulen als Datenströme und ermöglicht damit eine weitgehende Parallelisierung von einzelnen Modulen. Die autonome Ausführung der Module führt zu einer wesentlichen Beschleu-nigung der Verarbeitung von Einzeldokumenten und verbesserten Antwortzeiten, z. B. für Extraktions-dienste. Bisherige Ansätze untersuchen lediglich die Steigerung des durchschnittlichen Dokumenten-durchsatzes durch verteilte Ausführung von Instanzen eines IE-Systems. Die Informationsextraktion im Kontext der Enterprise Search unterscheidet sich z. B. von der Extraktion aus dem World Wide Web dadurch, dass in der Regel strukturierte Referenzdaten z. B. in Form von Unternehmensdatenbanken oder Terminologien zur Verfügung stehen, die oft auch die Beziehungen von Entitäten beschreiben. Entitäten im Unternehmensumfeld haben weiterhin bestimmte Charakteristiken: Eine Klasse von relevanten Entitäten folgt bestimmten Bildungsvorschriften, die nicht immer bekannt sind, auf die aber mit Hilfe von bekannten Beispielentitäten geschlossen werden kann, so dass unbekannte Entitäten extrahiert werden können. Die Bezeichner der anderen Klasse von Entitäten haben eher umschreibenden Charakter. Die korrespondierenden Umschreibungen in Texten können variieren, wodurch eine Identifikation derartiger Entitäten oft erschwert wird. Zur effizienteren Entwicklung von IE-Systemen wird in der Dissertation ein Verfahren untersucht, das alleine anhand von Beispielentitäten effektive Reguläre Ausdrücke zur Extraktion von unbekannten Entitäten erlernt und damit den manuellen Aufwand in derartigen Anwendungsfällen minimiert. Verschiedene Generalisierungs- und Spezialisierungsheuristiken erkennen Muster auf verschiedenen Abstraktionsebenen und schaffen dadurch einen Ausgleich zwischen Genauigkeit und Vollständigkeit bei der Extraktion. Bekannte Regellernverfahren im Bereich der Informationsextraktion unterstützen die beschriebenen Problemstellungen nicht, sondern benötigen einen (annotierten) Dokumentenkorpus. Eine Methode zur Identifikation von Entitäten, die durch Graph-strukturierte Referenzdaten vordefiniert sind, wird als dritter Schwerpunkt untersucht. Es werden Verfahren konzipiert, welche über einen exakten Zeichenkettenvergleich zwischen Text und Referenzdatensatz hinausgehen und Teilübereinstimmungen und Beziehungen zwischen Entitäten zur Identifikation und Disambiguierung heranziehen. Das in der Arbeit vorgestellte Verfahren ist bisherigen Ansätzen hinsichtlich der Genauigkeit und Vollständigkeit bei der Identifikation überlegen. N2 - The automatic information extraction (IE) from unstructured texts enables new ways to access relevant information and analyze text contents, which goes beyond existing technologies for keyword-based search in document collections. However, the development of systems for extracting machine-readable data from text still requires the implementation of domain-specific extraction programs. In particular in the field of enterprise search (the retrieval of information in the enterprise settings), in which a large amount of heterogeneous document types exists, it is often necessary to develop ad-hoc program-modules and to combine them with generic program components to extract by business relevant entities. This is particularly critical, as potentially for each individual application a new IE system must be developed from scratch. In this work we examine efficient methods to develop and execute IE systems in the context of enterprise search and effective algorithms to exploit pre-existing structured data in the business context for the extraction and identification of business entities in documents. The basis of this work is a novel platform for composition of IE systems through the description of the data flow between generic and application-specific IE modules. The platform supports in particular the development and reuse of generic IE modules and is characterized by a higher flexibility as compared to previous methods. A technique developed in this work interprets the document processing as data stream between IE modules and thus enables an extensive parallelization of individual modules. The autonomous execution of each module allows for a significant runtime improvement for individual documents and thus improves response times, e.g. for extraction services. Previous parallelization approaches focused only on an improved throughput for large document collections, e.g., by leveraging distributed instances of an IE system. Information extraction in the context of enterprise search differs for instance from the extraction from the World Wide Web by the fact that usually a variety of structured reference data (corporate databases or terminologies) is available, which often describes the relationships among entities. Furthermore, entity names in a business environment usually follow special characteristics: On the one hand relevant entities such as product identifiers follow certain patterns that are not always known beforehand, but can be inferred using known sample entities, so that unknown entities can be extracted. On the other hand many designators have a more descriptive character (concatenation of descriptive words). The respective references in texts might differ due to the diversity of potential descriptions, often making the identification of such entities difficult. To address IE applications in the presence of available structured data, we study in this work the inference of effective regular expressions from given sample entities. Various generalization and specialization heuristics are used to identify patterns at different syntactic abstraction levels and thus generate regular expressions which promise both high recall and precision. Compared to previous rule learning techniques in the field of information extraction, our technique does not require any annotated document corpus. A method for the identification of entities that are predefined by graph structured reference data is examined as a third contribution. An algorithm is presented which goes beyond an exact string comparison between text and reference data set. It allows for an effective identification and disambiguation of potentially discovered entities by exploitation of approximate matching strategies. The method leverages further relationships among entities for identification and disambiguation. The method presented in this work is superior to previous approaches with regard to precision and recall. KW - Informationsextraktion KW - Enterprise Search KW - Parallele Datenverarbeitung KW - Grammatikalische Inferenz KW - Graph-basiertes Ranking KW - information extraction KW - enterprise search KW - multi core data processing KW - grammar inference KW - graph-based ranking Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51409 ER - TY - THES A1 - Strehmel, Nadine T1 - GC-TOF-MS basierte Analyse von niedermolekularen Primär- und Sekundärmetaboliten agrarwirtschaftlich bedeutsamer Nutzpflanzen T1 - GC-TOF-MS based metabolite profiling of low molecular weight primary and secondary metabolites of agricultural meaningful crops N2 - Die Qualität von Nutzpflanzen ist von zahlreichen Einflussfaktoren wie beispielsweise Lagerbedingungen und Sorteneigenschaften abhängig. Um Qualitätsmängel zu minimieren und Absatzchancen von Nutzpflanzen zu steigern sind umfangreiche Analysen hinsichtlich ihrer stofflichen Zusammensetzung notwendig. Chromatographische Techniken gekoppelt an ein Massenspektrometer und die Kernspinresonanzspektroskopie wurden dafür bislang verwendet. In der vorliegenden Arbeit wurde ein Gaschromatograph an ein Flugzeitmassenspektrometer (GC-TOF-MS) gekoppelt, um physiologische Prozesse bzw. Eigenschaften (die Schwarzfleckigkeit, die Chipsbräunung, das Physiologische Alter und die Keimhemmung) von Nutzpflanzen aufzuklären. Als Pflanzenmodell wurde dafür die Kartoffelknolle verwendet. Dazu wurden neue analytische Lösungsansätze entwickelt, die eine zielgerichtete Auswertung einer Vielzahl von Proben, die Etablierung einer umfangreichen Referenzspektrenbibliothek und die sichere Archivierung aller experimentellen Daten umfassen. Das Verfahren der Probenvorbereitung wurde soweit modifiziert, dass gering konzentrierte Substanzen mittels GC-TOF-MS analysiert werden können. Dadurch wurde das durch die Probenvorbereitung limitierte Substanzspektrum erweitert. Anhand dieser Lösungsansätze wurden physiologisch relevante Stoffwechselprodukte identifiziert, welche indikativ (klassifizierend) bzw. prädiktiv (vorhersagend) für die physiologischen Prozesse sind. Für die Schwarzfleckigkeitsneigung und die Chipseignung wurde jeweils ein biochemisches Modell zur Vorhersage dieser Prozesse aufgestellt und auf eine Züchtungspopulation übertragen. Ferner wurden für die Schwarzfleckigkeit Stoffwechselprodukte des Respirationsstoffwechsels identifiziert sowie Aminosäuren, Glycerollipide und Phenylpropanoide für das Physiologische Alter als relevant erachtet. Das physiologische Altern konnte durch die Anwendung höherer Temperaturen beschleunigt werden. Durch Anwendung von Keimhemmern (Kümmelöl, Chlorpropham) wurde eine Verzögerung des physiologischen Alterns beobachtet. Die Applikation von Kümmelöl erwies sich dabei als besonders vorteilhaft. Kümmelöl behandelte Knollen wiesen im Vergleich zu unbehandelten Knollen nur Veränderungen im Aminosäure-, Zucker- und Sekundärstoffwechsel auf. Chlorpropham behandelte Knollen wiesen einen ähnlichen Stoffwechsel wie die unbehandelten Knollen auf. Für die bislang noch nicht identifizierten Stoffwechselprodukte wurden im Rahmen dieser Arbeit das Verfahren der „gezielten An-/Abreicherung“, der „gepaarten NMR/GC-TOF-MS Analyse“ und das „Entscheidungsbaumverfahren“ entwickelt. Diese ermöglichen eine Klassifizierung von GC-MS Signalen im Hinblick auf ihre chemische Funktionalität. Das Verfahren der gekoppelten NMR/GC-TOF-MS Analyse erwies sich dabei als besonders erfolgversprechend, da es eine Aufklärung bislang unbekannter gaschromatographischer Signale ermöglicht. In der vorliegenden Arbeit wurden neue Stoffwechselprodukte in der Kartoffelknolle identifiziert, wodurch ein wertvoller Beitrag zur Analytik der Metabolomik geleistet wurde. N2 - Several factors influence the quality of crops. These include particular storage conditions and cultivar properties. Minimization of quality defects requires the employment of comprehensive metabolic analysis to enhance the marketing potential of crops. From this point of view chromatographic techniques coupled either with a mass spectrometer or the combination with nuclear magnetic resonance spectroscopy have been successfully applied to solve the main tasks. In the present work, a gas chromatograph was coupled to a time of flight mass spectrometer (GC-TOF-MS) to analyze physiological processes and attitudes of crops like black spot bruising, chips tanning, physiological aging, and sprouting inhibition. For this purpose the potato tuber was employed as a model plant. Therefore, new analytical approaches were developed comprising the targeted analysis of a multitude of samples, the establishment of a comprehensive mass spectral reference library and the built up of a secure archival storage system. Furthermore, the sample preparation protocol was modified to analyze trace components with the help of GC-TOF-MS as well. This helped to extend the discovery of more endogenous metabolites. These analytical approaches were required to identify physiological relevant indicative and predictive metabolites. Consequently, a biochemical model was build up for the process of black spot bruising and chips tanning respectively. These models could be applied to an unknown breeding progeny. Metabolites of the respiratory chain were identified as relevant for the process of black spot bruising whereas amino acids, lipids and phenylpropanoids were of high importance for the process of physiological aging.  The process of physiological aging could be accelerated while applying higher temperatures and could be delayed while applying sprouting inhibitors, like caraway oil and chlorpropham. Compared to chlorpropham, caraway oil exhibited more advantages with respect to storage attitudes although it caused significant changes in the amino acid, sugar and secondary metabolism during a common storage period. However, the chlorpropham treated tubers showed a similar phenotype in comparison to the control tubers. In addition, several methods were developed with respect to the classification of yet unidentified signals. These cover the decision tree process, the targeted enrichment and depletion of specific metabolites with the help of solid phase extraction and the paired NMR and GC-MS analyses. The paired NMR and GC-MS analysis appears very promising because it allows for the identification of unknown GC-MS signals. Thus, this work makes a valuable contribution to the analytics of the metabolome, as new metabolites could be identified which are of physiological relevance for the potato tuber. KW - Stoffwechselprodukt KW - Kartoffelknolle KW - Identifizierung KW - analytische Lösungsansätze KW - Biomarker KW - metabolite KW - potato tuber KW - identification KW - analytical approaches KW - biomarker Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51238 ER - TY - BOOK A1 - Pepe, Jacopo Maria T1 - Die Gasversorgung Europas BT - Das Dreieck EU – Russland – Ukraine zwischen Geopolitik und Geoökonomie N2 - Die Abhängigkeit der EU von Russlands Gaslieferungen sowie die Zuverlässigkeit des Transitlandes Ukraine ist hochgradig umstritten. Für den Politikwissenschaftler Jacopo Pepe, zeigen sich dabei jedoch keine existentiellen Bedrohungen für die Versorgungssicherheit Europas, sondern konstruierte Diskurse. Er argumentiert, dass es sich hier nicht um geopolitisches sondern um ein ökonomisches Problem handelt. Dieses wurzelt in dem ukrainisch-russisch Gasgeschäft der 1990er Jahre. Geopolitische Fragen und belastete politischen Beziehungen haben die Krise zugespitzt und die russische Reaktion verschärft. Erst so konnte das Umfeld für einen „Securitization“ Diskurs entstehen, der mit geostrategischen Zielen der USA übereinstimmt. Die Lösung muss sowohl (geo)ökonomisch als auch geopolitisch erfolgen: Geoökonomisch, durch die Gründung eines europäisch-russisch-ukrainischen Konsortium für die Verwaltung des International Transport System der Ukraine; geopolitisch durch eine kooperative Neuvermessung des Verhältnisses der EU mit Russland. Nur dadurch kann ein erneutes Scheitern der Gasversorgung Europas verhindert werden. T3 - Horizonte 21 : Umwelt · Energie · Sicherheit - 3 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50235 SN - 978-3-86956-098-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Thesen, Manuel Wolfram T1 - Synthese und Charakterisierung von phosphoreszenten Terpolymeren und nichtkonjugierten Matrixpolymeren für effiziente polymere Leuchtdioden T1 - Synthesis and characterization of phosphoreszent terpolymers and nonconjugated matrixpolymers for efficient polymer light emitting diodes N2 - Mit Seitenkettenpolystyrenen wurde ein neues Synthesekonzept für phosphoreszente polymere LED-Materialien aufgestellt und experimentell verifiziert. Zunächst erfolgten auf Grundlage strukturell einfacher Verbindungen Untersuchungen zum Einfluss von Spacern zwischen aktiven Seitengruppen und dem Polystyrenrückgrat. Es wurden Synthesemethoden für die Monomere etabliert, durch die aktive Elemente - Elektronen- und Lochleiter - mit und ohne diesen Spacer zugänglich sind. Durch Kombination dieser Monomere waren unter Hinzunahme von polymerisierbaren Iridium-Komplexen in unterschiedlicher Emissionswellenlänge statistische Terpolymere darstellbar. Es wurde gezeigt, dass die Realisierung bestimmter Verhältnisse zwischen Loch-, Elektronenleiter und Triplettemitter in ausreichender Molmasse möglich ist. Die Glasstufen der Polymere zeigten eine deutliche Strukturabhängigkeit. Auf die Lage der Grenzorbitale übten die Spacer nahezu keinen Einfluss aus. Die unterschiedlichen Makromoleküle kamen in polymeren Licht emittierenden Dioden (PLEDs) zum Einsatz, wobei ein deutlicher Einfluss der Spacereinheiten auf die Leistungscharakteristik der PLEDs festzustellen war: Sowohl Effizienz, Leuchtdichte wie auch Stromdichte waren durch den Einsatz der kompakten Makromoleküle ohne Spacer deutlich höher. Diese Beobachtungen begründeten sich hauptsächlich in der Verwendung der aliphatischen Spacer, die den Anteil im Polymer erhöhten, der keine Konjugation und damit elektrisch isolierende Eigenschaften besaß. Diese Schlussfolgerungen waren mit allen drei realisierten Emissionsfarben grün, rot und blau verifizierbar. Die besten Messergebnisse erzielte eine PLED aus einem grün emittierenden und spacerlosen Terpolymer mit einer Stromeffizienz von etwa 28 cd A-1 (bei 6 V) und einer Leuchtdichte von 3200 cd m-2 (bei 8 V). Ausgehend von obigen Ergebnissen konnten neue Matrixmaterialien aus dem Bereich verdampfbarer Moleküle geringer Molmasse in das Polystyrenseitenkettenkonzept integriert werden. Es wurden Strukturvariationen sowohl von loch- wie auch von elektronenleitenden Verbindungen als Homopolymere dargestellt und als molekular dotierte Systeme in PLEDs untersucht. Sieben verschiedene lochleitende Polymere mit Triarylamin-Grundkörper und drei elektronendefizitäre Polymere auf der Basis von Phenylbenzimidazol konnten erfolgreich in den Polymeransatz integriert werden. Spektroskopische und elektrochemische Untersuchungen zeigten kaum eine Veränderung der Charakteristika zwischen verdampfbaren Molekülen und den dargestellten Makromolekülen. Diese ladungstransportierenden Makro-moleküle wurden als polymere Matrizes molekular dotiert und lösungsbasiert zu Einschicht-PLEDs verarbeitet. Als aussichtsreichstes Lochleiterpolymer dieser Reihe, mit einer Strom-effizenz von etwa 33 cd A-1 (bei 8 V) und einer Leuchtdichte von 6700 cd m-2 (bei 10 V), stellte sich ein Triarylaminderivat mit Carbazolsubstituenten heraus. Als geeignetstes Matrixmaterial für die Elektronenleitung wurde ein meta-verknüpftes Di-Phenylbenzimidazol ausfindig gemacht, das in der PLED eine Stromeffizienz von etwa 20 cd A-1 (bei 8 V) und eine Leuchtdichte von 7100 cd m-2 (bei 10 V) erzielte. Anschließend wurden die geeignetsten Monomere zu Copolymeren kombiniert: Die lochleitende Einheit bildete ein carbazolylsubstituiertes Triarylamin und die elektronen-leitende Einheit war ein disubstituiertes Phenylbenzimidazol. Dieses Copolymer diente im Folgenden dazu, PLEDs zu realisieren und die Leistungsdaten mit denen eines Homopolymer-blends zu vergleichen, wobei der Blend die bessere Leistungscharakteristik zeigte. Mit dem Homopolymerblend waren Bauteileffizienzen von annähernd 30 cd A-1 (bei 10 V) und Leuchtdichten von 6800 cd m-2 neben einer Verringerung der Einsatzspannung realisierbar. Für die abschließende Darstellung bipolarer Blockcopolymere wurde auf die Nitroxid-vermittelte Polymerisation zurückgegriffen. Mit dieser Technik waren kontrollierte radikalische Polymersiationen mit ausgewählten Monomeren in unterschiedlichen Block-längen durchführbar. Diese Blockcopolymere kamen als molekular dotierte Matrizes in phosphoreszenten grün emittierenden PLEDs zum Einsatz. Die Bauteile wurden sowohl mit statistischen Copolymeren, wie auch mit Homopolymerblends in gleicher Zusammensetzung aber unterschiedlichem Polymerisationsgrad hinsichtlich der Leistungscharakteristik verglichen. Kernaussage dieser Untersuchungen ist, dass hochmolekulare Systeme eine bessere Leistungscharakteristik aufweisen als niedermolekulare Matrizes. Über Rasterkraft-mikroskopie konnte eine Phasenseparation in einem Größenbereich von etwa 10 nm für den hochmolekularen Homopolymerblend nachgewiesen werden. Für die Blockcopolymere war es nicht möglich eine Phasenseparation zu beobachten, was vorwiegend auf deren zu geringe Blocklänge zurückgeführt wurde. N2 - A new synthetic approach for the synthesis of side chain polystyrenes was established and their use as phosphorescent polymers for polymer light emitting diodes (PLEDs) is shown by experiments. An assay was introduced to clarify influences on electroluminescent behavior for RGB-colored phosphorescent terpolymers with N,N-Di-p-tolyl-aniline as hole-transporting unit, 2-(4-biphenyl)-5-(4-tert-butylphenyl)-1,3,4-oxadiazole (tert-BuPBD) as electron-transporting unit, and different iridium complexes in RGB-colors as triplet emitting materials. All monomers were attached with spacer moieties to the “para” position of a polystyrene. PLEDs were built to study the electro-optical behavior of these materials. The gist was a remarkable influence of hexyl-spacer units to the PLED performance. For all three colors only very restricted PLED performances were found. In comparison RGB-terpolymers were synthesized with directly attached charge transport materials to the polymer backbone. For this directly linked systems efficiencies were 28 cd A−1 @ 6 V (green), 4.9 cd A−1 @ 5 V (red) and 4.3 cd A−1 @ 6 V (bluish). In summary it is assumed that an improved charge percolation pathways regarding to the higher content of semiconducting molecules and an improved charge transfer to the phosphorescent dopand in the case of the copolymers without spacers are responsible for the better device performance comparing the copolymers with hexyl spacers. It was found that the approach of the directly connected charge transport materials at the nonconjugated styrene polymer backbone is favored for further investigations as shown in the following. A series of styrene derived monomers with triphenylamine-based units, and their polymers have been synthesized and compared with the well-known structure of polymer of N,N′-bis(3-methylphenyl)-N,N′-diphenylbenzidine with respect to their hole-transporting behavior in PLEDs. A vinyltriphenylamine structure was selected as a basic unit, functionalized at the para positions with the following side groups: diphenylamine, 3-methylphenyl-aniline, 1- and 2-naphthylamine, carbazole, and phenothiazine. The polymers are used in PLEDs as host polymers for blend systems. It is demonstrated that two polymers are excellent hole-transporting matrix materials for these blend systems because of their good overall electroluminescent performances and their comparatively high glass transition temperatures. For the carbazole-substituted polymer (Tg = 246 °C), a luminous efficiency of 35 cd A−1 and a brightness of 6700 cd m−2 at 10 V is accessible. The phenothiazine-functionalized polymer (Tg = 220 °C) shows nearly the same outstanding PLED behavior. Hence, both these polymers outperform the well-known polymer of N,N′-bis(3-methylphenyl)-N,N′-diphenylbenzidine, showing only a luminous efficiency of 7.9 cd A−1 and a brightness of 2500 cd m−2 (10 V). Furthermore, novel styrene functionalized monomers with phenylbenzo[d]imidazole units and the corresponding homopolymers are prepared. The macromolecules are used as matrices for phosphorescent dopants to prepare PLEDs. The devices exhibit current efficiencies up to 38.5 cd A−1 at 100 cd m−2 and maximum luminances of 7400 cd m−2 at 10 V. Afterwards the most efficient monomers of this investigations were combined and statistical copolymers were synthesized. As hole-transporting monomer the carbazole substituted triarylamine and as electron-transporting monomer a disubstituted phenylbenzoimidazole was selected. This statistical copolymer was used in the following as matrix material for phosporescent PLEDs and the device performance was compared with a matrix system of a polymer blend matrix system of corresponding homopolymers. With this homopolymer blend efficiencies of about 30 cd A-1 at 10 V and luminances of 6800 cd m-2 beside a decreased onset voltage were realized. Finally bipolar blockcopolymers of structural basic monomers were synthesized via nitroxide mediated polymerization. With these technique and the chosen hole- and electron-transporting monomers a controlled radical polymerization was realized leading to blockcopolymers in different block lengths. These blockcopolymers were used as molecular doped matrix systems in green phosphoreszent PLEDs. The devices were compared in regard to their performances with PLEDs made of statistical copolymers and homopolymer blends. It was found that high molecular systems show a better device performance compared to low molecular polymer matrices. With atomic force microscopy it is shown that a phase separation takes place for the high molecular blend of homopolymers. For the synthesized blockcopolymers no phase separation could be verified, mainly because of the comparatively low molecular weight of these systems. KW - phosphoreszente Terpolymere KW - Elektrolumineszenz KW - organische Licht emittierende Diode KW - Ladungstransport KW - bipolare Blockcopolymere KW - phosphorescent Terpolymers KW - electroluminsecence KW - organic light emitting diode KW - charge transport KW - bipolar blockcopolymers Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51709 ER - TY - THES A1 - Rasch, Claudia T1 - Optische Spektroskopie zum Nachweis von Schimmelpilzen und deren Mykotoxine T1 - Optical spectroscopy for the determination of mould and mycotoxins N2 - Gesunde sowie qualitativ hochwertige Nahrungsmittel sind wichtige Voraussetzungen, um einerseits die Lebensmittelsicherheit entlang der Wertschöpfungskette (Wachstum, Verarbeitung, Lagerung und Transport) und andererseits einen vorbeugenden Verbraucherschutz zu gewährleisten. Die Belastung der Nahrung mit Rückständen jeglicher Art war in letzter Zeit häufig Mittelpunkt heftiger öffentlicher Diskussionen. Zahlreiche Untersuchungen haben gezeigt, dass unter bestimmten Bedingungen durch Pilze gebildete Giftstoffe, so genannte Mykotoxine, die Ernteprodukte belasten und es bei deren Verzehr durch Menschen oder Tiere zu Vergiftungen kommen kann. Die FAO schätzt, dass etwa 25% der Weltproduktion von Nahrungsmitteln mit Mykotoxinen kontaminiert und in 20% der Getreideernte der Europäischen Union messbare Konzentrationen an Mykotoxinen detektierbar sind. Damit die Lebensmittelsicherheit weiterhin gewährleistet bleibt, werden neben den Routinemethoden schnellere und zerstörungsfreie Methoden benötigt, um die Lebensmittel direkt vor Ort auf Schimmelpilze und deren Mykotoxine zu untersuchen. In dieser Arbeit wird das Potenzial von ausgewählten optisch-basierten spektroskopischen Methoden für die in-situ bzw. in-line Detektion von Schimmelpilzen sowie Mykotoxinen in Getreide(produkten) untersucht. Es werden Absorptions- und Reflexionsmethoden einerseits und Fluoreszenztechniken andererseits eingesetzt. Die spektroskopischen Methoden werden dabei auf Proben unterschiedlicher Komplexität angewandt - beginnend mit der Untersuchung der photophysikalischen Eigenschaften der reinen Mykotoxine in Lösung über künstlich mit verschiedenen Mykotoxinen kontaminierten Getreideproben bis hin zu mit Pilzen befallenem Getreide und hochveredelte Lebensmittel (Wein und Bier) als Proben höchster Komplexität. N2 - Problems of food safety have led to an increasing concern regarding contamination of foods and feeds with mycotoxins and the relevant toxigenic fungi, mainly Aspergillus, Penicillium and Fusarium genera. There is a real need for rapid, sensitive and inexpensive sensors for the detection of toxigenic fungi and mycotoxins, both in the field and after harvest in order to obtain real-time monitoring data on contamination and this assist in food safety assessment. This will result in an enormous cost saving to the farmers as well as to agro-food industry through the prevention and reduction of product recalls and reduced treatment costs. The German Ministry of Education and Research (BMBF) has provided funding of more than 1.9 million Euros from July 2006 to December 2009 for the large joint project "ProSeso.net2" on the development of innovative sensor-based techniques and processes in the field of food quality and safety. In this research-project "Exploration of sustainability potentials by use of sensor-based technologies and integrated assessment models in the production chain of plant related food" 13 partners from universities, non-university institutions and industry cooperate within seven subprojects. The expected results shall contribute to maintain freshness and improve safety of the food production chain. In the subproject “Indicators and sensor technology for the identification of mycotoxin producing fungi in the processing of grain” spectroscopic methods are tested for in-situ and in-line detection of moulds and/or mycotoxins. This presentation focuses on some possible spectroscopic methods for the rapid detection of mycotoxins and fungi on grains. Methods based on one- and two-photon-induced fluorescence spectroscopy are highly attractive because of their outstanding sensitivity and selectivity. In order to utilize a fluorescence technique for the analysis of the mycotoxins in food and feedstuff as well as for basic research on the fungal metabolism, the photochemistry and photophysics of the mycotoxins and fungi need to be elucidated in detail, especially the influence of solvent parameters such as polarity and pH value. Consequently, for a sensitive and selective spectroscopic analysis, it is indispensable to take the specific photophysic of the known mycotoxins into account in order to minimize serious limitations upon sensitivity, selectivity, and accuracy of a potential fluorescence-based sensing application. The spectroscopic techniques are complemented by chemometric tools (Principle Component Analysis) to extract the desired chemical information, e.g. with respect to presence of contaminations. The combination of data obtained from different spectroscopic methods (such as optimal excitation and emission wavelength, fluorescence decay times, and fluorescence quantum efficiency) on the one hand side and NIR spectroscopy on the other side shows promising results for the qualitative as well as quantitative identification of mycotoxins grains. Moreover, NIR reflectance spectra yield additional information on ingredients, moisture content, and the presence (or absence) of fungi in the sample. KW - Mykotoxine KW - Schimmelpilze KW - Fluoreszenz KW - Chemometrie KW - Zweiphotonenanregung KW - mycotoxins KW - mould KW - fluorescence KW - chemometrics KW - Two-Photon-Absorption Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50746 ER - TY - THES A1 - Meinhardt, Miriam T1 - Der Einfluss der Informationsstruktur auf das Verständnis von Aktiv- und Passivsätzen im ungestörten Spracherwerb T1 - The influcene of information structure on German-speaking children's comprehension of active and passive sentences N2 - Kinder erwerben Passivstrukturen später als die meisten anderen syntaktischen Strukturen. Die vorliegende Studie beschäftigt sich mit der Frage, ob dies auf informationsstrukturelle Faktoren zurückzuführen sein könnte. Probleme beim Erwerb von Passivsätzen wurden in vorhergehenden Studien unter anderem auf ihre geringe Inputfrequenz oder bestimmte syntaktische Charakteristika von Passivsätzen zurückgeführt. Jedoch konnte bisher keiner dieser Ansätze ihr spätes Erwerbsalter umfassend erklären. Während Aktivsätze, die kanonische, unmarkierte Satzstruktur im Deutschen, in jeglichem Diskurskontext verwendet werden können, werden Passivsätze fast ausschließlich dann verwendet, wenn der Patiens der beschriebenen Handlung schon vorerwähnt war und/ oder als Topik eines Satzes fungieren soll. Passivsätze sind also nicht in jedem Kontext informationsstrukturell adäquat. Kinder haben im Gegensatz zu Erwachsenen aufgrund ihrer geringeren syntaktischen Fähigkeiten Probleme, Sätze zu verarbeiten, die nicht in einem adäquaten Kontext stehen. Der Einfluss dieser Kontextbedingungen auf das Satzverständnis wurde in der vorliegenden Studie bei deutschsprachigen Kindern untersucht. Kindern zwischen 3;0 und 4;11 Jahren wurden Aktiv- oder Passivsätze präsentiert, denen informationsstrukturell adäquate, inadäquate oder neutrale Kontextsätze vorangingen. Wie erwartet verstanden die Kinder Aktivsätze besser als Passivsätze und 4-jährige Kinder zeigten bessere Leistungen als 3-jährige. Es gab Tendenzen, dass die 3-jährigen Kinder Passivsätze besser, aber Aktivsätze schlechter verstanden, wenn ihr Subjekt vorerwähnt wurde. Statistisch signifikante Kontexteffekte fanden sich jedoch im Gegensatz zu einer vergleichbaren Studie mit englischsprachigen Kindern (Gourley und Catlin, 1978) in keiner Testbedingung. Außerdem zeigte sich, dass die Kinder Passivsätze insgesamt besser und Aktivsätze insgesamt schlechter verstanden als englischsprachige Kinder in anderen Studien. Die Ergebnisse werden mit dem Competition Modell (Mac Whinney und Bates, 1987) und einer Sprachverarbeitungstheorie von Stromswold (2002) erklärt. Außerdem wird diskutiert, warum die deutschsprachigen Kinder in der vorliegenden Studie andere Sprachverständnisleistungen zeigten als englischsprachige Kinder. N2 - Children acquire passive constructions later than most other syntactic structures. The purpose of the present study was to investigate whether this phenomenon can be explained with an information-structural account. In former studies problems in the acquisition of the passive voice have often been attributed to its low input frequency or to its specific syntactic characteristics. However, none of these theories could sufficiently explain the late age of acquisition of passive structures. Sentences in the active voice, the canonical, unmarked, structure in German can be used in any discourse context while passive sentences are almost always used if the patient of the described action is GIVEN in the context and/ or serves as the TOPIC of the sentence. Therefore passive sentences cannot be used in any context without violating information structural constraints. It is more difficult for children – due to their less developed syntactic abilities – than for adults to process sentences which do not occur in an information structurally appropriate context. The present study examines the influence of the context on sentence comprehension abilities of German speaking children. Children at the age of 3;0 – 4;11 years were presented active or passive sentences in an information structurally appropriate, inappropriate or neutral context. As expected, children comprehended active sentences better than passive sentences, and 4-year olds performed better than 3-year olds. There was a tendency that 3-year olds comprehended passive sentences better but active sentences worse if the subject of the sentence was GIVEN in the context. However, there were no statistically significant context effects, in contrast to a similar study with English-speaking children (Gourley and Catlin, 1978). In addition, it could be shown that German-speaking children comprehended passive sentences better than English-speaking children in other studies. The results are explained with the Competition Model (Mac Whinney and Bates, 1987) and Stromswold’s (2002) theory of language processing. It is also discussed why German-speaking children showed different language comprehension abilities than English-speaking children. KW - Passiv KW - Spracherwerb KW - Informationsstruktur KW - Vorerwähntheit KW - Grammatikerwerb KW - Passive voice KW - Language Acquisition KW - Information Structure KW - Givenness KW - Grammar Acqiuisition Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59563 ER - TY - THES A1 - Bach, Stefan T1 - Empirical studies on tax distribution and tax reform in Germany T1 - Empirische Studien zu Steuerlastverteilung und Steuerreformen in Deutschland N2 - This professorial dissertation thesis collects several empirical studies on tax distribution and tax reform in Germany. Chapter 2 deals with two studies on effective income taxation, based on representative micro data sets from tax statistics. The first study analyses the effective income taxation at the individual level, in particular with respect to the top incomes. It is based on an integrated micro data file of household survey data and income tax statistics, which captures the entire income distribution up to the very top. Despite substantial tax base erosion and reductions of top tax rates, the German personal income tax has remained effectively progressive. The distribution of the tax burden is highly concentrated and the German economic elite is still taxed relatively heavily, even though the effective tax rate for this group has significantly declined. The second study of Chapter 2 highlights the effective income taxation of functional income sources, such as labor income, business and capital income, etc. Using income tax micro data and microsimulation models, we allocate the individual income tax liability to the respective income sources, according to different apportionment schemes accounting for losses. We find that the choice of the apportionment scheme markedly affects the tax shares of income sources and implicit tax rates, in particular those of capital income. Income types without significant losses such as labor income or transfer incomes show higher tax shares and implicit tax rates if we account for losses. The opposite is true for capital income, in particular for income from renting and leasing. Chapter 3 presents two studies on business taxation, based on representative micro data sets from tax statistics and the microsimulation model BizTax. The first part provides a study on fundamental reform options for the German local business tax. We find that today’s high concentration of local business tax revenues on corporations with high profits decreases if the tax base is broadened by integrating more taxpayers and by including more elements of business value added. The reform scenarios with a broader tax base distribute the local business tax revenue per capita more equally across regional categories. The second study of Chapter 3 discusses the macroeconomic performance of business taxation against the background of corporate income. A comparison of the tax base reported in tax statistics with the macroeconomic corporate income from national accounts gives hints to considerable tax base erosion. The average implicit tax rate on corporate income was around 20 percent since 2001, and thus falling considerably short of statutory tax rates and effective tax rates discussed in the literature. For lack of detailed accounting data it is hard to give precise reasons for the presumptive tax base erosion. Chapter 4 deals with several assessment studies on the ecological tax reform implemented in Germany as of 1999. First, we describe the scientific, ideological, and political background of the ecological tax reform. Further, we present the main findings of a first systematic impact analysis. We employ two macroeconomic models, an econometric input-output model and a recursive-dynamic computable general equilibrium (CGE) model. Both models show that Germany’s ecological tax reform helps to reduce energy consumption and CO2 emissions without having a substantial adverse effect on overall economic growth. It could have a slightly positive effect on employment. The reform’s impact on the business sector and the effects of special provisions granted to agriculture and the goods and materials sectors are outlined in a further study. The special provisions avoid higher tax burdens on the energy-intensive production. However, they widely reduce the marginal tax rates and thus the incentives to energy saving. Though the reform of special provisions 2003 increased the overall tax burden of the energy-intensive industry, the enlarged eligibility for tax rebates neutralizes the ecologic incentives. Based on the Income and Consumption Survey of 2003, we have analyzed the distributional impact of the ecological tax reform. The increased energy taxes show a clear regressive impact relative to disposable income. Families with children face a higher tax burden relative to household income. The reduction of pension contributions and the automatic adjustment of social security transfers widely mitigate this regressive impact. Households with low income or with many children nevertheless bear a slight increase in tax burden. Refunding the eco tax revenue by an eco bonus would make the reform clearly progressive. N2 - Diese Habilitationsschrift fasst verschiedene empirische Studien zu Steuerlastverteilung und Steuerreformen in Deutschland zusammen. In Kapitel 2 werden zwei Studien zur effektiven Einkommensteuerbelastung dargestellt. Die erste Studie analysiert die effektive Einkommensteuerbelastung auf der persönlichen Ebene, insbesondere bei Personen mit hohen Einkommen. Grundlage der Analyse ist ein integrierter Mikrodatensatz aus Haushaltserhebungen und Steuerstatistik, der die vollständige Einkommensverteilung zuverlässig abbildet. Trotz erheblicher Steuerbegünstigungen und Senkungen der Spitzensteuersätze wirkt die deutsche Einkommensteuer klar progressiv, auch wenn die Belastung der Top-Verdiener in den letzten Jahren deutlich gesunken ist. Die zweite Studie in Kapitel 2 analysiert die effektive Einkommensteuerbelastung von verschiedenen funktionalen Einkommensquellen. Auf Grundlage von steuerstatistischen Mikrodaten und Mikrosimulationsmodellen analysieren wir die Anteile der Einkunftsarten an der Steuerbelastung für verschiedene Aufteilungsregeln unter Berücksichtigung von Verlusten. Die Wahl der Aufteilungsregel wirkt sich spürbar auf den Steueranteil und die impliziten Steuersätze von Einkommensarten aus, wenn Verluste berücksichtigt werden, vor allem bei den Vermögenseinkommen. Kapitel 3 enthält zwei Studien zur Unternehmensbesteuerung, die auf repräsentativen Einzeldatensätzen der Steuerstatistik und dem Mikrosimulationsmodell BizTax basieren. Zunächst wird eine Mikrosimulationsanalyse zu grundlegenden Reformmodellen für die Gewerbesteuer vorgestellt. Die Ergebnisse zeigen, dass die starke Konzentration des Gewerbesteueraufkommens auf die Unternehmen mit höheren Gewinnen deutlich vermindert werden kann, wenn die Bemessungsgrundlagen verbreitert werden, durch Einbeziehung aller Unternehmen und eine Ausweitung auf weitere Komponenten der betrieblichen Wertschöpfung. Diese Reformszenarien verteilen das Steueraufkommen je Einwohner deutlich gleichmäßiger über die Regionen. In der zweiten Studie des Kapitels 3 analysieren wir das Unternehmensteueraufkommen vor dem Hintergrund der gesamtwirtschaftlichen Unternehmensgewinne. Ein Vergleich der steuerlichen Bemessungsgrundlagen mit den entsprechenden Unternehmensgewinnen der Volkswirtschaftlichen Gesamtrechnungen ergibt eine beträchtliche Besteuerungslücke. Die durchschnittliche effektive Unternehmensteuerbelastung dürfte sich seit 2001 um 20 Prozent bewegt haben. Dies ist deutlich niedriger als die nominalen tariflichen Steuersätze und die effektiven Steuersätze, die in der Literatur ermittelt werden. Mangels detaillierter statistischer Erfassung der steuerlichen Gewinnermittlung ist es derzeit nicht möglich, diese Besteuerungslücke genauer aufzuklären. In Kapitel 4 werden verschiedene Studien zur ökologischen Steuerreform dargestellt. Zunächst werden die wissenschaftlichen, ideologischen und politischen Hintergründe dieser Reform erläutert. Danach wird eine erste systematische Wirkungsanalyse dargestellt. Dabei werden zwei makroökonomische Modelle eingesetzt, ein ökonometrisches Input-Output-Modell und ein empirisches rekursiv-dynamisches allgemeines Gleichgewichtsmodell. Die Ergebnisse zeigen, dass die ökologische Steuerreform den Energieverbrauch und die CO2-Emissionen spürbar senken kann, ohne dass dies nennenswerte Wachstumseinbußen nach sich ziehen würde. Ferner löst die Reform leicht positive Beschäftigungseffekte aus. Die Wirkungen der ökologischen Steuerreform nach Wirtschaftsbereichen und die Wirkungen der Steuervergünstigungen für Landwirtschaft und Produzierendes Gewerbe werden in einer weiteren Studie analysiert. Die Steuervergünstigungen vermeiden höhere Belastungen in den energieintensiven Produktionsbereichen. Zugleich reduzieren sie die Grenzbelastungen und somit die Anreize zum Energiesparen in diesen Branchen weitgehend. Die Reform der Steuervergünstigungen hat zwar die Belastungen für die energieintensive Wirtschaft seit 2003 erhöht. Die zusätzlichen Anreizwirkungen wurden aber durch die Ausweitung des „Spitzenausgleichs“ konterkariert. Die Effekte der ökologischen Steuerreform auf die Einkommensverteilung wurden auf Grundlage der Einkommens- und Verbrauchsstichprobe 2003 untersucht. Die erhöhten Energiesteuern wirken klar regressiv bezogen auf das verfügbare Einkommen. Familien mit Kindern werden relativ stärker belastet. Die Senkung der Rentenbeiträge und die automatische Anpassung von Sozialleistungen mildern die regressive Belastungswirkung. Bei Haushalten mit niedrigen Einkommen oder bei Familien mit vielen Kindern bleiben jedoch Nettobelastungen bestehen. Eine Rückerstattung des Ökosteueraufkommens durch einen „Ökobonus“ würde die gesamten Verteilungswirkungen der Reform deutlich progressiv machen. KW - Steuerlastverteilung KW - Steuerreform KW - Mikrosimulation KW - Evaluierung der Steuerpolitik KW - Tax distribution KW - tax reform KW - microsimulation KW - tax policy evaluation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60289 ER - TY - THES A1 - Watermeyer, Melanie T1 - Ausagieren von Sätzen versus Satz-Bild-Zuordnung : Vergleich zweier Methoden zur Untersuchung des Sprachverständnisses anhand von semantisch reversiblen Sätzen mit Objektvoranstellung bei drei- und fünfjährigen Kindern T1 - Act-out versus picture selection : comparison of two methods for the assessment of receptive language abilities using semantically reversible sentences with object fronting in three and five-year-old children N2 - Sprachverständnisuntersuchungen sind sowohl für die Forschung zum Spracherwerb und zu dessen Störungen als auch für die Diagnostik in der klinischen Praxis von essentieller Bedeutung. Zwei der verbreitetesten Methoden zur Erfassung des Verständnisses von syntaktischen Strukturen sind das Ausagieren von Sätzen (AS) und die Satz-Bild-Zuordnung (SBZ). Beide Methoden sind mit unterschiedlichen Anforderungen an die Probanden sowie mit spezifischen Vor- und Nachteilen verbunden (vgl. z.B. Goodluck 1996, Gerken & Shady 1996), woraus sich die Frage ergibt, inwiefern die Wahl der Methode das Testergebnis und die damit verbundenen Schlussfolgerungen beeinflusst. In der hier beschriebenen empirischen Untersuchung wurden die AS- und die SBZ-Methode anhand des Verstehens semantisch reversibler Sätze mit Objektvoranstellung direkt miteinander verglichen: Jeweils 24 monolingual mit Deutsch als Muttersprache aufwachsenden, sprachunauffälligen Kindern im Alter von 3;0 bis 3;5 bzw. 5;0 bis 5;5 Jahren wurden insgesamt zwölf Items, von denen neun aus semantisch reversiblen Sätzen mit Objektvoranstellung und drei aus entsprechenden subjektinitialen Kontrastsätzen bestanden, sowohl mittels der AS-Methode als auch mittels der SBZ-Methode präsentiert. Zum Ausagieren der Testsätze (AS-Test) wurden Spielzeugfiguren verwendet, für die Satz-Bild-Zuordnung (SBZ-Test) wurden pro Item ein Ziel- und zwei Ablenkerbilder erstellt. Die kindlichen Reaktionen wurden nach syntaktischen Kriterien als korrekt bzw. inkorrekt bewertet, Abweichungen wurden hinsichtlich der Fehlerart klassifiziert. Zusätzlich wurde bei den einzelnen Kindern der Erwerbsstand der untersuchten Struktur beurteilt und es wurden, sofern möglich, die eingesetzten Sprachverständnisstrategien ermittelt. Der Vergleich der Methoden ergab für die einzelnen Altersgruppen sehr unterschiedliche Befunde: Bei den 3;0- bis 3;5-jährigen Kindern zeigten sich im SBZ-Test teilweise starke Rateeffekte, die zu verfälschten Ergebnissen und kaum interpretierbaren Reaktionsmustern führten, während dies im AS-Test nicht der Fall war. Für diese Altersgruppe ist demnach die AS-Methode als die geeignetere anzusehen. Bei den 5;0- bis 5;5-jährigen Kindern konnte indes keine derartige Diskrepanz zwischen den beiden Tests festgestellt werden. Vielmehr waren die Leistungen hier insgesamt vergleichbar, so dass für diese Altersgruppe die AS- und die SBZ-Methode als für die Untersuchung des Syntaxverständnisses gleichwertig gelten können. Darüber hinaus bestätigte die Untersuchung viele der in der Literatur beschriebenen Vor- und Nachteile der beiden Methoden, darunter der geringere Materialbeschaffungsaufwand bei der AS-Methode, die größere Durchführungspraktikabilität der SBZ-Methode, die höhere Attraktivität und das geringere Risiko für Antwort-biases bei der AS-Methode, die leichtere Bewertbarkeit der kindlichen Reaktionen bei der SBZ-Methode. Im Vergleich der Altersgruppen zeigte sich, dass die 5;0- bis 5;5-jährigen Kinder Testsätze mit Objektvoranstellung deutlich besser verstanden als die 3;0- bis 3;5-jährigen: Die meisten der jüngeren Kinder hatten die untersuchte Struktur offenbar noch nicht erworben – sie interpretierten die Sätze mit Objektvoranstellung stattdessen am häufigsten nach der Wortreihenfolgestrategie, verstanden sie also wie subjektinitiale Strukturen. Von den 5;0- bis 5;5-jährigen Kindern dagegen hatten 75% die untersuchte Struktur rezeptiv erworben, interpretierten die Testsätze also primär korrekt nach der grammatischen Strategie. Aus diesen Ergebnissen wurde geschlossen, dass die Struktur semantisch reversibler Sätze mit Objektvoranstellung frühestens ab einem Alter von 5;0 bis 5;5 Jahren als in der ungestörten Sprachentwicklung rezeptiv erworben gelten kann. Da sich jedoch in beiden Altersgruppen trotz allem eine erhebliche interindividuelle Variation hinsichtlich der Verständnisfähigkeiten zeigte, muss insgesamt von einem relativ langen Zeitfenster für den ungestörten Erwerb dieser Struktur ausgegangen werden. N2 - The assessment of children’s receptive language abilities plays an essential part in both experimental research on language acquisition and clinical diagnostics of language acquisition impairments. Two of the most prevalent methods especially used for assessing syntax comprehension are act-out and picture selection. The two methods do not only differ in their requirements on the proband/patient, but also have specific advantages and disadvantages concerning the development, administration, and interpretation of experimental or diagnostic tests (cf. Goodluck 1996, Gerken & Shady 1996). This leads to the question of how far the adopted method influences the result of the test and the conclusions drawn from it. In the study reported here, act-out and picture selection were, by means of a comprehension task using semantically reversible sentences with object fronting, directly compared to each other. Subjects were 48 German-speaking children with normal language development: 24 aged 3;0 to 3;5 years and another 24 aged 5;0 to 5;5 years. The children were presented with twelve stimuli, nine consisting of semantically reversible sentences with object fronting and three of correspondent subject initial constructions, using both an act-out procedure with toy props and a picture selection procedure with three choices per sentence. The child’s responses were scored correct or incorrect according to syntactic criteria, with incorrect responses categorised by type. In addition, the child’s level of acquisition of the structure in focus and, when possible, the comprehension strategies used by the child were determined. The comparison of the two methods yielded very different results for the individual age groups: A considerable proportion of the 3;0 to 3;5-year-olds displayed strong effects of guessing with the picture selection procedure, which led to inaccurate results and response patterns that were hardly interpretable, whereas this was not the case with the act-out procedure. According to these findings then, act-out is to be considered the more suitable method for children of this age. However with the 5;0 to 5;5-year-olds, no such discrepancy between the two methods was found, their results in both tests being comparable. Thus, for children aged five years or older, picture selection and act-out can be regarded as equivalent methods for the assessment of syntax comprehension. In addition to these findings, many of the advantages and disadvantages of the two methods described in the literature were confirmed in the study, such as the lower material provision costs with the act-out procedure, the higher administration practicability of the picture selection method, the greater appeal for children and the lower risk for response-biases with act-out tasks, and with picture selection, the easier scoring of the child’s responses . Comparing the two age groups, the 5;0 to 5;5-year-olds showed considerably better comprehension of the semantically reversible sentences with object fronting than the 3;0 to 3;5-year-olds: The majority of the younger children obviously had not yet acquired the structure in question and instead, mostly relying on the so called word order strategy, misinterpreted the sentences with object fronting as subject-initial structures. In contrast, 75% of the older children had receptively acquired the syntax of object fronting, since they interpreted most of the test sentences correctly according to a grammatical strategy. From these results, it was concluded that the structure of semantically reversible sentences with object fronting can be regarded as receptively acquired in normal language development at the earliest at age 5;0 to 5;5 years. However, since there was considerable interindividual variation in the comprehension abilities in both age groups, the time frame for the acquisition of this structure must be assumed to be relatively large. KW - Testmethoden KW - Sprachverständnis KW - Syntaxerwerb KW - assessment methods KW - language comprehension KW - syntax acquisition Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52380 ER - TY - THES A1 - Kirchner, Henriette T1 - The ghrelin system links dietary lipids with the endocrine control of energy homeostasis T1 - Das Ghrelin-GOAT-System verbindet die Aufnahme von Nahrungsfetten mit der zentralen Regulation der Energiehomöostase N2 - Ghrelin is a unique hunger-inducing stomach-borne hormone. It activates orexigenic circuits in the central nervous system (CNS) when acylated with a fatty acid residue by the Ghrelin O-acyltransferase (GOAT). Soon after the discovery of ghrelin a theoretical model emerged which suggests that the gastric peptide ghrelin is the first “meal initiation molecule N2 - Ghrelin ist ein einzigartiges im Magen produziertes Hormon, da es von dem Enzym Ghrelin O-acyltransferase (GOAT) mit einer mittelkettigen Fettsäure acyliert werden muss, um biologische Aktivität zu erlangen. Kurz nach seiner Entdeckung entstand die Hypothese, dass Ghrelin das „Hungerhormon“ sei und eine wichtige Rolle in der Regulation des Energiehaushalts spiele. Die genetische Manipulation von Ghrelin und seinem Rezeptor, dem GHSR, hat jedoch nur geringe Auswirkung auf Appetit und Körpergewicht. In der hier vorliegenden Studie stellen wir neuartige Mausmodelle mit abgewandelter Ghrelin-, GHSR- und GOATfunktion vor, um den Einfluss des Ghrelinsystems auf die Regulation der Energiehomöostase zu reevaluieren. Weiterhin wird die endogene Regulation von GOAT erstmalig beschrieben. Double-knockout Mäuse, die gleichzeitig defizitär für Ghrelin und GHSR sind, haben ein geringeres Körpergewicht, weniger Fettmasse und einen niedrigeren Energieverbrauch als Kontrolltiere. Knockout Mäuse für das GOAT Gen Mboat4 sind leichter und schlanker als Kontrolltiere. Dementsprechend haben transgene Mäuse, die Ghrelin und GOAT überproduzieren, eine erhöhte Fettmasse und einen verminderten Energieverbrauch. Weiterhin können wir zeigen, dass GOAT, anders als auf Grund der allgemein bekannten Ghrelinfunktion angenommen, nicht durch Hungern aktiviert wird. Bei Mäusen, die gefastet haben, ist die Genexpression von Mboat4 deutlich herunterreguliert, woraus ein geringer Blutspiegel von Acyl-Ghrelin resultiert. Daraus haben wir geschlossen, dass GOAT eventuell Nahrungsfette und nicht die durch Hungern freigesetzten endogen Fettsäuren zur Ghrelinacylierung benutzt. Fütterungsversuche bestätigen diese Hypothese, da GOAT die unnatürliche Fettsäure Heptan Säure (C7), die der Tiernahrung beigefügt wurde, zur Ghrelinacylierung verwendet. Ein weiteres Indiz für die Notwendigkeit von Nahrungsfetten für die Ghrelinacylierung ist, dass die transgenen Ghrelin/GOAT Mäuse nur massiv Acyl-Ghrelin produzieren, wenn sie mit einer Diät gefüttert werden, die mit mittelkettigen Fettsäuren angereichert ist. Zusammenfassend zeigt die Studie, dass das Ghrelinsystem maßgeblich an der Regulation der Energiehomöostase beteiligt ist und dass die Ghrelinaktivierung direkt von Nahrungsfetten beeinflusst wird. Daraus könnte geschlossen werden, dass Ghrelin wohlmöglich nicht das Hungerhormon ist, wie bisher generell angenommen wurde. Ghrelin könnte vielmehr ein potentieller “Fettsensor KW - Ghrelin KW - GOAT KW - Hungerhormon KW - Nahrungsfette KW - Energiehaushalt KW - Ghrelin KW - GOAT KW - hunger hormone KW - dietary lipids KW - energy homeostasis Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52393 ER - TY - THES A1 - Zaupa, Alessandro T1 - Physical crosslinking of gelatin : a supramolecular approach to biomaterials T1 - Physikalische Quervernetzung von Gelatine : ein supramolekularer Zugang zu Biomaterialien N2 - This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-% or 25 wt.-% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-% for pure gelatin to 300 vol.-% for the DATT modified gelatin), at the same time, Young’s modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young’s moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite. N2 - Diese Arbeit beschreibt die Entwicklung von durch spezifische physikalische Wechselwirkungen quervernetzten Gelatine-basierten Materialien. Dazu wurden zunächst Computermodelle entwickelt, mit denen Eigenschaften der Materialien vorhergesagt werden sollten, um so eine wissensbasierte Entwicklung zu ermöglichen, um dann die Ergebnisse mit experimentellen Daten zu vergleichen und die Materialien und Modelle als Grundlage für weitere Entwicklungen zu nutzen. Gelatine wurde mit Desaminotyrosin (DAT) und Desaminotyrosyltyrosin (DATT) funktionalisiert, die sich von der natürlichen Aminosäure Tyrosin ableiten. Diese Gruppen können potentiell π-π Wechselwirkungen und Wasserstoffbrückenbindungen auch unter physiologischen Bedingungen eingehen. Es wurden Computersimulationen der Materialien mittels Moleküldynamik durchgeführt, wobei Modelle mit 0.8 Gew.-% und 25 Gew.-% Wassergehalt betrachtet wurden. Die Validierung der Modelle erfolgte durch Vergleich der errechneten mit experimentellen Daten wie z.B. der Dichte, Bindungswinkeln sowie Röntgenstreuungsspektren. Die Modelle wurden dann zur Vorhersage der molekularen Organisation der Polymerketten, Formierung physikalischer Netzpunkte und Berechnung der mechanischen Eigenschaften eingesetzt. Die Funktionalisierung der Gelatine mit DAT bzw. DATT führten wie gewünscht zur Ausbildung physikalischer Netzpunkte durch π-π Wechselwirkungen und Wasserstoffbrücken¬bindungen. Ein Schlüsselergebnis der Simulationen war, dass mit zunehmender Zahl an aromatischen Gruppen auch eine Zunahme der physikalischen Netzpunkte beobachtet werden konnte. Die funktionalisierten Gelatinen konnten durch chemoselektive Reaktion der Aminogruppen der Gelatine mit den freien Carboxylgruppen von DAT und DATT hergestellt werden. Materialien mit 25 Gew.-% Wassergehalt hatten in der Simulation und im Experiment mechanische Eigenschaften derselben Größenordnung (z.B. E-Moduln im unteren GPa-Bereich). Der Quellungsgrad der Materialien im Experiment nahm mit zunehmender Zahl an aromatische Gruppen ab (von 2800 Vol.-% auf 300 Vol.-%), wobei der Elastizitätsmodul, die Bruchdehnung sowie die Zugfestigkeit zunahmen. Die Funktionalisierung der Gelatine ist eine chemische Methode, um die Kettenanordnung auf molekularer Ebene zu beeinflussen, während die genaue Kontrolle der Trocknungs¬bedinguungen von Gelatine-basierten Materialien eine physikalische Methode mit demselben Ziel ist. Es konnte gezeigt werden, dass die Funktionalisierung von Gelatine mit DAT oder DATT zu einer stark verminderten Helixausbildungstendenz, die jedoch durch Variation der Trocknunsgbedingungen noch fein abgestimmt werden konnte. Somit konnten die mechanischen Eigenschaften von Filmen aus funktionlisierter Gelatine mit zwei unabhängigen Methoden eingestellt werden. Komposite der mit DAT oder DATT funktionalisierten Gelatine und Hydroxyapatit (HAp) zeigten deutlich verringerter Quellung. In Zugdehnungsexperimenten und rheologischen Untersuchungen zeigten die Komposite im Gleichgewichtsquellungszustand erhöhte Elastizitätsmoduln (von 200 kPa auf bis zu 2 MPa) und Zugfestigkeit (von 57 kPa auf bis zu 1.1 MPa). Darüber hinaus konnte die Übergangstemperatur Tc deutlich gesteigert werden (von ca. 40 °C auf > 85 °C). Dieses Verhalten ließ sich auf stabilisierende Bindungen zwischen den aromatische Gruppen und dem HAp zurückführen. KW - Physikalische Quervernetzung KW - Supramolekularen Wechselwirkung KW - Molekulare Modellierung KW - Biomaterialien KW - Gelatine KW - Komposite KW - Hydroxyapatit KW - Physical Network KW - Supramolecular Interaction KW - Molecular modeling KW - Biomaterial KW - Gelatin KW - Composite KW - Hydroxyapatite Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52888 ER - TY - THES A1 - Poltrock, Silvana T1 - About the relation between implicit Theory of Mind & the comprehension of complement sentences T1 - Über den Zusammenhang zwischen impliziter Theory of Mind und dem Verstehen von Komplementsatzstrukturen N2 - Previous studies on the relation between language and social cognition have shown that children’s mastery of embedded sentential complements plays a causal role for the development of a Theory of Mind (ToM). Children start to succeed on complementation tasks in which they are required to report the content of an embedded clause in the second half of the fourth year. Traditional ToM tasks test the child’s ability to predict that a person who is holding a false belief (FB) about a situation will act "falsely". In these task, children do not represent FBs until the age of 4 years. According the linguistic determinism hypothesis, only the unique syntax of complement sentences provides the format for representing FBs. However, experiments measuring children’s looking behavior instead of their explicit predictions provided evidence that already 2-year olds possess an implicit ToM. This dissertation examined the question of whether there is an interrelation also between implicit ToM and the comprehension of complement sentences in typically developing German preschoolers. Two studies were conducted. In a correlational study (Study 1 ), 3-year-old children’s performance on a traditional (explicit) FB task, on an implicit FB task and on language tasks measuring children’s comprehension of tensed sentential complements were collected and tested for their interdependence. Eye-tracking methodology was used to assess implicit ToM by measuring participants’ spontaneous anticipatory eye movements while they were watching FB movies. Two central findings emerged. First, predictive looking (implicit ToM) was not correlated with complement mastery, although both measures were associated with explicit FB task performance. This pattern of results suggests that explicit, but not implicit ToM is language dependent. Second, as a group, 3-year-olds did not display implicit FB understanding. That is, previous findings on a precocious reasoning ability could not be replicated. This indicates that the characteristics of predictive looking tasks play a role for the elicitation of implicit FB understanding as the current task was completely nonverbal and as complex as traditional FB tasks. Study 2 took a methodological approach by investigating whether children display an earlier comprehension of sentential complements when using the same means of measurement as used in experimental tasks tapping implicit ToM, namely anticipatory looking. Two experiments were conducted. 3-year-olds were confronted either with a complement sentence expressing the protagonist’s FB (Exp. 1) or with a complex sentence expressing the protagonist’s belief without giving any information about the truth/ falsity of the belief (Exp. 2). Afterwards, their expectations about the protagonist’s future behavior were measured. Overall, implicit measures reveal no considerably earlier understanding of sentential complementation. Whereas 3-year-olds did not display a comprehension of complex sentences if these embedded a false proposition, children from 3;9 years on were proficient in processing complement sentences if the truth value of the embedded proposition could not be evaluated. This pattern of results suggests that (1) the linguistic expression of a person’s FB does not elicit implicit FB understanding and that (2) the assessment of the purely syntactic understanding of complement sentences is affected by competing reality information. In conclusion, this dissertation found no evidence that the implicit ToM is related to the comprehension of sentential complementation. The findings suggest that implicit ToM might be based on nonlinguistic processes. Results are discussed in the light of recently proposed dual-process models that assume two cognitive mechanisms that account for different levels of ToM task performance. N2 - Zahlreiche Studien legen nahe, dass der Erwerb finiter Komplementsatzstrukturen eine Voraussetzung für die Entwicklung einer Theory of Mind (ToM) ist. Kinder beginnen in circa der zweiten Hälfte ihres 4. Lebensjahres Komplementsatzverständnisaufgaben zu lösen, die eine Wiedergabe des Komplementsatzes erfordern. Die ToM wird klassischerweise als erworben bezeichnet, wenn ein Kind korrekt vorhersagen kann, dass eine Person, die eine falsche Überzeugung hat, entsprechend "falsch" handeln wird. Es ist bekannt, dass sich diese Fähigkeit bei Kindern mit circa 4 Jahren entwickelt. Gemäß der Hypothese des linguistischen Determinismus liefert die syntaktische Komplexität von Komplementsatzstrukturen das Format, um falsche Überzeugungen mental zu repräsentieren. In ToM Aufgaben, die erfassen, wo Kinder eine zukünfige Handlung einer fehlinformierten Person antizipieren, konnte allerdings bereits schon bei 2-Jährigen das Verstehen falscher Überzeugungen nachgewiesen werden. Diese frühe Fähigkeit wird auch implizite ToM genannt, da diese Art der Aufgabe keine bewusste Entscheidung verlangt. Die vorliegende Dissertation untersucht erstmalig im Deutschen, ob der Zusammenhang zwischen dem Verstehen von Komplementsatzstrukturen und ToM auch für diese implizite Fähigkeit gilt. Zwei Studien wurden durchgeführt. In Studie 1 wurden die Leistungen von 3-Jährigen in einer klassischen (expliziten) ToM Aufgabe, einer impliziten ToM Aufgabe und in Komplementsatzverständnisaufgaben erhoben und auf korrelative Zusammenhänge hin getestet. Dabei wurde mittels eines Eye-Trackers das antizipative Blickverhalten gemessen und somit auf das Vorhandensein einer impliziten ToM geschlossen. Die Leistungen in den Sprachaufgaben korrelierten nicht mit den Blickdaten, obwohl beide Maße mit den Leistungen in der expliziten ToM Aufgabe in Beziehung standen. Unerwarteterweise konnte jedoch generell kein implizites Verstehen falscher Überzeugungen bei 3-jährigen nachgewiesen werden. Da die implizite ToM Aufgabe nichtsprachlich war, wird der Einfluss von Aufgabeneigenschaften auf die Elizitierung von impliziter ToM diskutiert. Studie 2 untersuchte, ob 3-Jährige ein früheres, implizites Verstehen von Komplementsatzstrukturen in Aufgaben zeigen, in denen antizipatorische Blicke anstelle von expliziten Antworten gemessen werden und damit das gleiche Maß verwendet wird wie in impliziten ToM Aufgaben. Zwei Experimente wurden durchgeführt. Der präsentierte Komplementsatz drückte entweder eine falsche Überzeugung des Protagonisten aus (Exp. 1) oder eine Überzeugung, deren Wahrheitsgehalt nicht bestimmt wurde (Exp. 2). Während bei 3-Jährigen kein Verstehen von Komplementsatzstrukturen, die eine falsche Proposition enthielten, nachgewiesen werden konnte, zeigten Kinder ab einem Alter von 3;9 Jahren, dass sie den komplexen Satz verarbeiten, wenn dieser keine falsche Proposition beinhaltet. Dieses Ergebnismuster spricht dafür, dass (1) der sprachliche Ausdruck einer falschen Überzeugung die implizite ToM nicht elizitieren kann und dass (2) das Erfassen des rein syntaktischen Verstehens durch zusätzliche Realitätsinformation beeinträchtigt wird. Zusammenfassend konnte in der vorliegenden Arbeit kein Hinweis dafür gefunden werden, dass die implizite ToM in gleicher Weise wie die explizite ToM mit dem Verstehen von Komplementsatzstrukturen einhergeht. Die Ergebnisse legen nahe, dass vielmehr nonlinguistische Faktoren bei der Entwicklung einer impliziten ToM eine Rolle spielen könnten. Die Resultate werden mit Blick auf aktuelle Zwei-Prozess-Modelle diskutiert. KW - Theory of Mind KW - Komplementsatzverstehen KW - linguistische Determinismushypothese KW - implizit KW - Blickbewegungsmessung KW - theory of mind KW - comprehension of complement sentences KW - linguistic determinism KW - implicit KW - eye tracking Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52293 ER - TY - THES A1 - Beck, Christoph T1 - Chronotopos Ostdeutschland aus der Sicht westdeutscher Autoren : vergleichende Roman-Analyse zu einem Motiv bei Jan Böttcher und Andreas Maier T1 - The chronotope of East-Germany from the West-German perspective : comparative novel analyzing to a motive at Jan Böttcher and Andreas Maier N2 - Bislang konzentrierten sich die Untersuchungen des westdeutschen Blicks auf Ostdeutschland auf den Zeitraum vor der Wende oder auf Rundfunk- und Fernseh-Medien. Die Gegenwartsliteratur stellt einen weißen Fleck in dieser Frage dar. Anhand des Chronotopos-Konzepts von Michail Bachtin werden in dieser Arbeit daher zeitliche und räumliche Tiefenstrukturen in der Darstellung Ostdeutschlands in den Werken Jan Böttchers und Andreas Maiers herausgearbeitet und mit ihrer Darstellung Westdeutschlands verglichen. Neben grundsätzlichen Unterschieden fallen dabei signifikante Übereinstimmungen auf. KW - Chronotopos KW - Ostdeutschland KW - Jan Böttcher KW - Andreas Maier KW - Michail Bachtin KW - Chronotope KW - East-Germany KW - Jan Böttcher KW - Andreas Maier KW - Mikhail Bakhtin Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52419 ER - TY - THES A1 - Chirvasa, Mihaela T1 - Finite difference methods for 1st Order in time, 2nd order in space, hyperbolic systems used in numerical relativity T1 - Finite Differenzen für hyperbolische Gleichungen erster Ordnung in der Zeit, zweiter Ordnung im Raum in der numerischen Relativitätstheorie N2 - This thesis is concerned with the development of numerical methods using finite difference techniques for the discretization of initial value problems (IVPs) and initial boundary value problems (IBVPs) of certain hyperbolic systems which are first order in time and second order in space. This type of system appears in some formulations of Einstein equations, such as ADM, BSSN, NOR, and the generalized harmonic formulation. For IVP, the stability method proposed in [14] is extended from second and fourth order centered schemes, to 2n-order accuracy, including also the case when some first order derivatives are approximated with off-centered finite difference operators (FDO) and dissipation is added to the right-hand sides of the equations. For the model problem of the wave equation, special attention is paid to the analysis of Courant limits and numerical speeds. Although off-centered FDOs have larger truncation errors than centered FDOs, it is shown that in certain situations, off-centering by just one point can be beneficial for the overall accuracy of the numerical scheme. The wave equation is also analyzed in respect to its initial boundary value problem. All three types of boundaries - outflow, inflow and completely inflow that can appear in this case, are investigated. Using the ghost-point method, 2n-accurate (n = 1, 4) numerical prescriptions are prescribed for each type of boundary. The inflow boundary is also approached using the SAT-SBP method. In the end of the thesis, a 1-D variant of BSSN formulation is derived and some of its IBVPs are considered. The boundary procedures, based on the ghost-point method, are intended to preserve the interior 2n-accuracy. Numerical tests show that this is the case if sufficient dissipation is added to the rhs of the equations. N2 - Diese Doktorarbeit beschäftigt sich mit der Entwicklung numerischer Verfahren für die Diskretisierung des Anfangswertproblems und des Anfangs-Randwertproblems unter Einsatz von finite-Differenzen-Techniken für bestimmte hyperbolischer Systeme erster Ordnung in der Zeit und zweiter Ordnung im Raum. Diese Art von Systemen erscheinen in einigen Formulierungen der Einstein'schen-Feldgleichungen, wie zB. den ADM, BSSN oder NOR Formulierungen, oder der sogenanten verallgemeinerten harmonischen Darstellung. Im Hinblick auf das Anfangswertproblem untersuche ich zunächst tiefgehend die mathematischen Eigenschaften von finite-Differenzen-Operatoren (FDO) erster und zweiter Ordnung mit 2n-facher Genaugigkeit. Anschließend erweitere ich eine in der Literatur beschriebene Methode zur Stabilitätsanalyse für Systeme mit zentrierten FDOs in zweiter und vierter Genauigkeitsordung auf Systeme mit gemischten zentrierten und nicht zentrierten Ableitungsoperatoren 2n-facher Genauigkeit, eingeschlossen zusätzlicher Dämpfungsterme, wie sie bei numerischen Simulationen der allgemeinen Relativitätstheorie üblich sind. Bei der Untersuchung der einfachen Wellengleichung als Fallbeispiel wird besonderes Augenmerk auf die Analyse der Courant-Grenzen und numerischen Geschwindigkeiten gelegt. Obwohl unzentrierte, diskrete Ableitungsoperatoren größere Diskretisierungs-Fehler besitzen als zentrierte Ableitungsoperatoren, wird gezeigt, daß man in bestimmten Situationen eine Dezentrierung des numerischen Moleküls von nur einem Punkt bezüglich des zentrierten FDO eine höhere Genauigkeit des numerischen Systems erzielen kann. Die Wellen-Gleichung in einer Dimension wurde ebenfalls im Hinblick auf das Anfangswertproblem untersucht. In Abhängigkeit des Wertes des sogenannten Shift-Vektors, müssen entweder zwei (vollständig eingehende Welle), eine (eingehende Welle) oder keine Randbedingung (ausgehende Welle) definiert werden. In dieser Arbeit wurden alle drei Fälle mit Hilfe der 'Ghost-point-methode' numerisch simuliert und untersucht, und zwar auf eine Weise, daß alle diese Algorithmen stabil sind und eine 2n-Genauigkeit besitzen. In der 'ghost-point-methode' werden die Evolutionsgleichungen bis zum letzen Punkt im Gitter diskretisiert unter Verwendung von zentrierten FDOs und die zusätzlichen Punkte die am Rand benötigt werden ('Ghost-points') werden unter Benutzung von Randwertbedingungen und Extrapolationen abgeschätzt. Für den Zufluß-Randwert wurde zusätzlich noch eine andere Implementierung entwickelt, welche auf der sogenannten SBP-SAT (Summation by parts-simulatanous approximation term) basiert. In dieser Methode werden die diskreten Ableitungen durch Operatoren angenähert, welche die 'Summation-by-parts' Regeln erfüllen. Die Randwertbedingungen selber werden in zusätzlichen Termen integriert, welche zu den Evolutionsgleichnungen der Punkte nahe des Randes hinzuaddiert werden und zwar auf eine Weise, daß die 'summation-by-parts' Eigenschaften erhalten bleiben. Am Ende dieser Arbeit wurde noch eine eindimensionale (kugelsymmetrische) Version der BSSN Formulierung abgeleitet und einige physikalisch relevanten Anfangs-Randwertprobleme werden diskutiert. Die Randwert-Algorithmen, welche für diesen Fall ausgearbeitet wurden, basieren auf der 'Ghost-point-Methode' and erfüllen die innere 2n-Genauigkeit solange genügend Reibung in den Gleichungen zugefügt wird. KW - Finite Differenzen KW - Wellengleichung KW - numerischen Relativitätstheorie KW - finite differences KW - wave equation KW - numerical relativity Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42135 ER - TY - THES A1 - Audretsch, Andreas T1 - Zur Entstehung von Good Governance : Gründe, Muster und Bedingungen einer afrikanischen Entwicklung ; das Beispiel Ghana T1 - About the emergence of Good Governance : reasons, models and conditions of an african development ; the example Ghana N2 - Ghana ist ein Musterbeispiel dafür, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gründe, Muster und Bedingungen führen zur Entstehung von Good Governance?“. Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst über einen sehr langen Zeitraum (über ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu können. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes“ sowohl unter Rückgriff auf quantitative als auch auf qualitative Methoden durchgeführt, was sich im Rückblick als sehr ertragreich erwiesen hat. Zunächst wird die Qualität der Governance über den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gründe für die Fort- und Rückschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkuläre Entwicklungen, die über viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbrüche aus den Kreisläufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bevölkerung mit öffentlichen Gütern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zunächst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilität politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. Ähnliche Verknüpfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Berücksichtigung eines komplexen Governance-Systems verstanden und erklärt werden. Dabei können die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verständnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance über das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengeführt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird darüber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Veränderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Veränderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachlässigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen. N2 - Ghana is a prime example that a developing country can forge the path towards Good Governance. According to various studies Ghana, compared to other African countries, is a front-runner in this respect. This study asks the question “what are the reasons, models and conditions which lead to Good Governance?”. At the heart of this study is an empirical analysis of the emergence of Good Governance in Ghana and the process of transformation. This process is studied over a long period of time (more than fifty years), in order to be able to judge the long-term developments as well as those in the short-term. The survey is conducted using a “Mixed Methods Approach”, both quantitative and qualitative analyses methods are used. In hindsight this approach proved to be very effective. Initially the quality of Governance is measured over the entire period of time using six different indicators. The improvements and setbacks are then qualitatively analyzed looking for reasons for these developments. This approach uncovered certain consistent systems i.e. circular developments which, for many years, were an obstacle on the road to Good Governance until Ghana was able to break out of the cycle eventually. Democratic change took place, rule of law was improved just as the provision of the population with public goods and the economic development. Even if the various aspects of Good Governance are studied separately at first, it becomes clear that these aspects are inter-related and influence each other. For example it has been shown, that the rule of law influences the stability of the political as well as the economic system and vice-versa. The development of a country can therefore only be understood and explained using a complex Governance-System. The interactions within this system can either be constructive or destructive. The linkages of the various fields are illustrated first in a negative and then in positive scenario which summarize the findings of this survey. At the same time they contribute to the analytic understanding of the processes analyzed. The study clearly shows how Good Governance emerges from an interaction between different factors. It also shows that it is scientifically very rewarding to consider a complex Governance-System in transformation research. In the study many different, empirically compiled, results concerning the particular transformations are brought together in comprehensive scenarios. As there are no surveys analyzing comprehensive Good Governance-transformations, this study takes the first step in this direction. It is clear that transformation towards Good Governance can not be achieved in a short period of time by changing the general framework. Instead, cultural change, learning processes and long-term development are what is important and these have been analyzed in this study using Ghana as an example. In many earlier studies on transformation this temporal aspect was neglected. Ghana has taken many steps towards Good Governance and the future. The analysis of these steps is core aspect of this survey. The country, however, still has a long way to go. KW - Governance KW - Ghana KW - Afrika KW - Demokratisierung KW - Korruption KW - Governance KW - Ghana KW - Africa KW - Democratisation KW - Corruption Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42310 ER - TY - THES A1 - Borchert, Manuela T1 - Interactions between aqueous fluids and silicate melts : equilibration, partitioning and complexation of trace elements T1 - Wechselwirkungen zwischen wässrigen Fluiden und silikatischen Schmelzen : Verteilung von Spurenelementen N2 - The origin and evolution of granites has been widely studied because granitoid rocks constitute a major portion of the Earth ́s crust. The formation of granitic magma is, besides temperature mainly triggered by the water content of these rocks. The presence of water in magmas plays an important role due to the ability of aqueous fluids to change the chemical composition of the magma. The exsolution of aqueous fluids from melts is closely linked to a fractionation of elements between the two phases. Then, aqueous fluids migrate to shallower parts of the Earth ́s crust because of it ́s lower density compared to that of melts and adjacent rocks. This process separates fluids and melts, and furthermore, during the ascent, aqueous fluids can react with the adjacent rocks and alter their chemical signature. This is particularly impor- tant during the formation of magmatic-hydrothermal ore deposits or in the late stages of the evolution of magmatic complexes. For a deeper insight to these processes, it is essential to improve our knowledge on element behavior in such systems. In particular, trace elements are used for these studies and petrogenetic interpretations because, unlike major elements, they are not essential for the stability of the phases involved and often reflect magmatic processes with less ambiguity. However, for the majority of important trace elements, the dependence of the geochemical behavior on temperature, pressure, and in particular on the composition of the system are only incompletely or not at all experimentally studied. Former studies often fo- cus on the determination of fluid−melt partition coefficients (Df/m=cfluid/cmelt) of economically interesting elements, e.g., Mo, Sn, Cu, and there are some partitioning data available for ele- ments that are also commonly used for petrological interpretations. At present, no systematic experimental data on trace element behavior in fluid−melt systems as function of pressure, temperature, and chemical composition are available. Additionally, almost all existing data are based on the analysis of quenched phases. This results in substantial uncertainties, particularly for the quenched aqueous fluid because trace element concentrations may change upon cooling. The objective of this PhD thesis consisted in the study of fluid−melt partition coefficients between aqueous solutions and granitic melts for different trace elements (Rb, Sr, Ba, La, Y, and Yb) as a function of temperature, pressure, salinity of the fluid, composition of the melt, and experimental and analytical approach. The latter included the refinement of an existing method to measure trace element concentrations in fluids equilibrated with silicate melts di- rectly at elevated pressures and temperatures using a hydrothermal diamond-anvil cell and synchrotron radiation X-ray fluorescence microanalysis. The application of this in-situ method enables to avoid the main source of error in data from quench experiments, i.e., trace element concentration in the fluid. A comparison of the in-situ results to data of conventional quench experiments allows a critical evaluation of quench data from this study and literature data. In detail, starting materials consisted of a suite of trace element doped haplogranitic glasses with ASI varying between 0.8 and 1.4 and H2O or a chloridic solution with m NaCl/KCl=1 and different salinities (1.16 to 3.56 m (NaCl+KCl)). Experiments were performed at 750 to 950◦C and 0.2 or 0.5 GPa using conventional quench devices (externally and internally heated pressure vessels) with different quench rates, and at 750◦C and 0.2 to 1.4 GPa with in-situ analysis of the trace element concentration in the fluids. The fluid−melt partitioning data of all studied trace elements show 1. a preference for the melt (Df/m < 1) at all studied conditions, 2. one to two orders of magnitude higher Df/m using chloridic solutions compared to experiments with H2O, 3. a clear dependence on the melt composition for fluid−melt partitioning of Sr, Ba, La, Y, and Yb in experiments using chloridic solutions, 4. quench rate−related differences of fluid−melt partition coefficients of Rb and Sr, and 5. distinctly higher fluid−melt partitioning data obtained from in-situ experiments than from comparable quench runs, particularly in the case of H2O as starting solution. The data point to a preference of all studied trace elements for the melt even at fairly high salinities, which contrasts with other experimental studies, but is supported by data from studies of natural co-genetically trapped fluid and melt inclusions. The in-situ measurements of trace element concentrations in the fluid verify that aqueous fluids will change their composition upon cooling, which is in particular important for Cl free systems. The distinct differences of the in-situ results to quench data of this study as well as to data from the literature signify the im- portance of a careful fluid sampling and analysis. Therefore, the direct measurement of trace element contents in fluids equilibrated with silicate melts at elevated PT conditions represents an important development to obtain more reliable fluid−melt partition coefficients. For further improvement, both the aqueous fluid and the silicate melt need to be analyzed in-situ because partitioning data that are based on the direct measurement of the trace element content in the fluid and analysis of a quenched melt are still not completely free of quench effects. At present, all available data on element complexation in aqueous fluids in equilibrium with silicate melts at high PT are indirectly derived from partitioning data, which involves in these experiments assumptions on the species present in the fluid. However, the activities of chemical components in these partitioning experiments are not well constrained, which is required for the definition of exchange equilibria between melt and fluid species. For example, the melt-dependent variation of partition coefficient observed for Sr imply that this element can not only be complexed by Cl− as suggested previously. The data indicate a more complicated complexation of Sr in the aqueous fluid. To verify this hypothesis, the in-situ setup was also used to determine strontium complexation in fluids equilibrated with silicate melts at desired PT conditions by the application of X-ray absorption near edge structure (XANES) spectroscopy. First results show a strong effect of both fluid and melt composition on the resulting XANES spectra, which indicates different complexation environments for Sr. N2 - Die Entstehung und Entwicklung von Graniten steht seit Jahrzehnten im Fokus vieler geologischer Studien, da sich die Erdkruste zu großen Teilen aus granitoiden Gesteinen zusammensetzt. Von besonderer Bedeutung für die Bildung von granitischen Schmelzen ist neben der Temperatur, der Wassergehalt der Schmelze, da dieser Parameter die chemische Zusammensetzung der Schmelze entscheidend verändern kann. Die Entmischung wässriger Fluide aus Schmelzen führt zur Neuverteilung von Elementen zwischen diesen Phasen. Bedingt durch die geringere Dichte des wässrigen Fluids im Vergleich zur Schmelze und dem Nebengestein, beginnt dieses aus tieferen Erdschichten aufzusteigen. Damit verknüpft ist nicht nur eine räumliche Trennung von Schmelze und Fluid, sondern auch die Alterierung des Nebengestein. Dieser Prozess ist insbesondere bei der Bildung von magmatisch-hydrothermalen Lagerstätten und in späten Entwicklungsstadien magmatischer Komplexe wichtig. Für ein detailliertes Verständnis dieser Prozesse ist es notwendig, das Elementverhalten in solchen Systemen in Abhängigkeit von Parametern wie Temperatur, Druck und chemischer Zusammensetzung des Systems experimentell zu untersuchen, und Elementverteilungskoeffizienten als Funktion dieser Variablen zu bestimmen. Für die Untersuchungen sind insbesondere Spurenelemente geeignet, da diese im Gegensatz zu Hauptelementen nicht essentiell für die Stabilität weiterer auftretender Phasen sind, aber sehr sensibel auf Änderungen intensiver Variablen reagieren können. Zudem werden bei geochemischen Mineral- und Gesteinsanalysen viele Spurenelemente, Spurenelementverhältnisse, und Spurenelementisotope als petrogenetische Indikatoren verwendet, d.h. diese Daten liefern Informationen darüber, wann und in welcher Tiefe und bei welchen chemischen Bedingungen ein Gestein gebildet worden ist, und welche weiteren Prozesse es auf dem Weg zur Erdoberfläche durchlaufen hat. Allerdings sind für vie- le Spurenelemente die Abhängigkeiten der Verteilung zwischen Fluiden und Schmelzen von intensiven Variablen nicht, oder nur unzureichend experimentell untersucht worden. Zusätzlich dazu basiert die Mehrheit der experimentell gewonnenen Verteilungskoeffizienten und deren Interpretation, insbesondere hinsichtlich der Elementkomplexierung im Fluid, auf der Analyse von schnell abgekühlten Phasen. Bisher ist nicht geklärt, ob solche Analysen repräsentativ sind für die Zusammensetzungen der Phasen bei hohen Drücken und Temperaturen. Das Ziel dieser Studie war die Erarbeitung eines experimentellen Datensatzes zur Spu- renelementverteilung zwischen granitischen Schmelzen und wässrigen Fluiden in Abhängigkeit von der Schmelzzusammensetzung, der Salinität des Fluids, des Drucks und der Temperatur. Ein Hauptanliegen der Arbeit bestand in der Weiterentwicklung einer experimentellen Methode bei welcher der Spurenelementgehalt im Fluid in-situ, d.h. unter hohen Drücken und Temperaturen, und im Gleichgewicht mit einer silikatischen Schmelze bestimmt wird. Die so gewonnenen Daten können anschließend mit den Resultaten von Abkühlexperimenten vergli- chen werden, um diese und auch Literaturdaten kritisch zu bewerten. Die Daten aller unter- suchten Spurenelemente dieser Arbeit (Rb, Sr, Ba, La, Y und Yb) zeigen: 1. unter den untersuchten Bedingungen eine Präferenz für die Schmelze unabhängig von der chemischen Zusammensetzung von Schmelze und Fluid, Druck oder Temperatur, 2. die Verwendung von chloridhaltigen Fluiden kann die Verteilungskoeffizienten um 1 bis 2 Größenordnungen anheben und 3. für die Verteilungskoeffizienten von Sr, Ba, La, Y und Yb eine starke Abhängigkeit von der Schmelzzusammensetzung im chloridischen System. Der Vergleich der Daten der verschiedenen Methoden zeigt, dass insbesondere für chloridfreie Fluide große Diskrepanzen zwischen den in-situ Daten und Analysen von abgeschreckten Proben bestehen. Dieses Ergebnis beweist eindeutig, dass beim Abschrecken der Proben Rückreaktionen stattfinden, und dass Daten, welche auf Analysen abgeschreckter Fluide basieren, nur eingeschränkt verwendet werden sollten. Die Variation der Verteilungskoeffizienten von Sr, Ba, La, Yb, und Y als Funktion der Schmelzzusammensetzung ist entweder auf eine Änderung der Komplexierung im Fluid und/oder einen anderen veränderten Einbau dieser Elemente in die Schmelze zurückzuführen. Daher wurde im Rahmen dieser Arbeit erstmals versucht, die Elementkomplexierung in silikatischen Fluiden direkt bei hohen Temperaturen und Drücken zu bestimmen. Die Daten für Sr zeigen, dass abhängig von der Schmelzzusammensetzung unterschiedliche Komplexe stabil sein müssen. KW - Spurenelement-Partitionierung KW - Fluid-Schmelze Wechselwirkung KW - HP-HT Experimente KW - In-Situ-Analyse KW - HDAC KW - trace element partitioning KW - fluid-melt interaction KW - HP-HT experiments KW - in-situ analysis KW - HDAC Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42088 ER - TY - BOOK ED - Krause, Wolf-Dieter T1 - Das Fremde und der Text : fremdsprachige Kommunikation und ihre Ergebnisse N2 - Dass die Textlinguistik nicht umhin kommt, ihre Beschreibungen und ihr Instrumentarium auch im Hinblick auf Texte zu überprüfen, die nicht von Muttersprachlern erzeugt worden sind, ist durch die wachsenden Bedürfnisse nach fremdsprachiger Kommunikation und die rapide steigende Zahl entsprechender kommunikativer Ereignisse bedingt. Der Fokus der vorliegenden Publikation liegt auf dem fremdsprachigen Text (vorzugsweise in seiner schriftlichen, monologischen Ausprägung) als sprachlicher Größe liegen. Bei der Analyse fremdsprachiger Texte werden neben textlinguistischen Fragen aber auch andere Gesichtspunkte berücksichtigt: soziolinguistische Aspekte, z.B. in Bezug auf die Kommunikationspartner, die kommunikativen Domänen, den sozial-historischen Rahmen der Kommunikation usw., psycholinguistische Hintergründe, z.B. im Hinblick auf die kognitive Verarbeitung fremdsprachlich-kommunikativer Anforderungen, literaturwissenschaftliche Bezüge, etwa hinsichtlich fremdsprachiger Einflüsse auf literarische Werke und ihre Rolle im literarischen Diskurs, translationswissenschaftliche Gesichtspunkte im Hinblick auf die Adaptation und Bewahrung des Fremden im übersetzten Text sowie pädagogisch-didaktische Fragen im Rahmen des gesteuerten Fremdsprachenerwerbs. N2 - Owing to the growing necessity for foreign language interaction and the rapidly increasing number of associated communicative events, it is essential for text linguistics also to test its categories and methodology on texts which have not been produced by native speakers. The focus of the present publication lies on the foreign language text (primarily on its written, monological form) which is conceived as a linguistic entity. However, alongside textlinguistic issues the analysis of foreign language texts also entails a consideration of the following parameters: sociolinguistic aspects, e.g. with regard to the communicative partners, communicative domains, social-historic framework of the communicative situation etc.; psycholinguistic aspects, e.g. with respect to the cognitive processing of foreign language communication tasks; literary aspects, e.g. with regard to foreign language influences on literary works and their role in literary discourse; translatory aspects concerning the adaptation and preservation of foreign cultural elements in a translated text and pedagogical-didactic questions concerning foreign language teaching. KW - Textlinguistik KW - Textualitätskriterien KW - Textstruktur KW - Textsorte KW - Intertextualität KW - Kommunikationsaufgabe KW - fremdsprachige Kommunikation KW - Text linguistics KW - Textuality criteria KW - Text structure KW - Text type KW - Intertextuality KW - Communicative task KW - Foreign language communication Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-40447 SN - 978-3-86956-033-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Huber, Veronika Emilie Charlotte T1 - Climate impact on phytoplankton blooms in shallow lakes T1 - Der Einfluss des Klimas auf Algenblüten in Flachseen N2 - Lake ecosystems across the globe have responded to climate warming of recent decades. However, correctly attributing observed changes to altered climatic conditions is complicated by multiple anthropogenic influences on lakes. This thesis contributes to a better understanding of climate impacts on freshwater phytoplankton, which forms the basis of the food chain and decisively influences water quality. The analyses were, for the most part, based on a long-term data set of physical, chemical and biological variables of a shallow, polymictic lake in north-eastern Germany (Müggelsee), which was subject to a simultaneous change in climate and trophic state during the past three decades. Data analysis included constructing a dynamic simulation model, implementing a genetic algorithm to parameterize models, and applying statistical techniques of classification tree and time-series analysis. Model results indicated that climatic factors and trophic state interactively determine the timing of the phytoplankton spring bloom (phenology) in shallow lakes. Under equally mild spring conditions, the phytoplankton spring bloom collapsed earlier under high than under low nutrient availability, due to a switch from a bottom-up driven to a top-down driven collapse. A novel approach to model phenology proved useful to assess the timings of population peaks in an artificially forced zooplankton-phytoplankton system. Mimicking climate warming by lengthening the growing period advanced algal blooms and consequently also peaks in zooplankton abundance. Investigating the reasons for the contrasting development of cyanobacteria during two recent summer heat wave events revealed that anomalously hot weather did not always, as often hypothesized, promote cyanobacteria in the nutrient-rich lake studied. The seasonal timing and duration of heat waves determined whether critical thresholds of thermal stratification, decisive for cyanobacterial bloom formation, were crossed. In addition, the temporal patterns of heat wave events influenced the summer abundance of some zooplankton species, which as predators may serve as a buffer by suppressing phytoplankton bloom formation. This thesis adds to the growing body of evidence that lake ecosystems have strongly responded to climatic changes of recent decades. It reaches beyond many previous studies of climate impacts on lakes by focusing on underlying mechanisms and explicitly considering multiple environmental changes. Key findings show that climate impacts are more severe in nutrient-rich than in nutrient-poor lakes. Hence, to develop lake management plans for the future, limnologists need to seek a comprehensive, mechanistic understanding of overlapping effects of the multi-faceted human footprint on aquatic ecosystems. N2 - Weltweit haben Seeökosysteme auf den Klimawandel der letzten Jahrzehnte reagiert. Beobachtete Veränderungen eindeutig dem Klimawandel zuzuordnen, wird jedoch häufig dadurch erschwert, dass Seen gleichzeitig vielfachen anthropogenen Einflüssen ausgesetzt sind. Diese Arbeit trägt zu einem besseren Verständnis des Klimaeinflusses auf Algen bei, die am Anfang der Nahrungskette stehen und maßgeblich die Wasserqualität eines Sees beeinflussen können. Zum größten Teil stützt sich die Arbeit auf eine dreißigjährige Datenreihe eines unregelmäßig geschichteten Flachsees im Nordosten von Deutschland (Müggelsee), in dem sowohl steigende Wassertemperaturen als auch sinkende Nährstoffeinträge zu verzeichnen waren. Bei der Datenanalyse wurde ein neu erstelltes dynamisches Simulationsmodell, genetische Algorithmen zur Parametrisierung von Modellen, und statistische Methoden der Klassifizierung und Zeitreihenanalyse genutzt. Ergebnisse dieser Arbeit zeigen, dass nicht nur klimatische Faktoren sondern auch die Nährstoffverfügbarkeit im See den Zeitpunkt der Algenfrühjahrsblüte (Phänologie) beeinflussen. Durch eine Veränderung der Mechanismen, die zum Kollaps der Blüte führen, trat diese trotz ähnlich milder Winterbedingungen bei hoher Nährstoffverfügbarkeit früher auf als bei niedriger. Ein neuentwickelter Ansatz zur Modellierung von Phänologie erwies sich als geeignet, um vorherzusagen, wann Algen und ihre Räuber in einem künstlich periodisch angetriebenen Laborsystem ihre Populationshöhepunkte erreichten. Eine Verlängerung der Wachstumsperiode führte dazu, dass diese früher auftraten. Die Untersuchung, warum sich Blaualgen im betrachteten See während jüngster Hitzewellenereignisse überraschend unterschiedlich entwickelt hatten, ergab, dass ungewöhnlich warmes Wetter nicht wie häufig vermutet generell förderlich für ihre Entwicklung ist. Der Zeitpunkt und die Dauer der Hitzewellen waren entscheidend dafür, ob für Blaualgen kritische Schwellenwerte der thermischen Schichtung im See überschritten wurden. Zudem zeigte sich, dass saisonale Erwärmungsmuster einen bedeutenden Einfluss auf Räuber nahmen, die das Auftreten von Algenblüten verhindern können. Diese Arbeit reiht sich in eine wachsende Anzahl von Studien ein, die zeigen, dass Seeökosysteme bereits stark auf die Klimaveränderungen der letzen Jahrzehnte reagiert haben. Mit ihrem Fokus auf Mechanismen und der expliziten Berücksichtigung simultaner anthropogener Einflüsse geht diese Arbeit gleichzeitig über viele bisherige Studien hinaus, die sich auf reine Beobachtung und die Betrachtung klimatischer Faktoren beschränkten. Kernergebnisse deuten daraufhin, dass Klimafolgen in nährstoffreichen Seen stärker ausfallen als in nährstoffarmen Seen. Nur mit einem umfassenden, mechanistischen Verständnis des vielfältigen anthropogenen Einflusses wird eine hohe Wasserqualität in Seen auch in Zukunft aufrechtzuerhalten sein. KW - Klimawandel KW - Gewässer KW - Phytoplankton KW - Phänologie KW - Modellierung KW - climate change KW - freshwater KW - phytoplankton KW - phenology KW - modelling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42346 ER - TY - THES A1 - Peters, Matthias T1 - Moby-Dick als Leerstelle und romantische Chiffre für die Aporie eines transzendentalen Signifikats T1 - Moby-Dick as a semantic gap and romantic cipher for the aporia of a transcendental signified N2 - Die Arbeit unternimmt den Versuch, Melvilles Moby-Dick als einen Vorboten postmoderner Literarizität in den Blick zu nehmen, der in seiner Autoreferentialität den eigenen textuellen Status kritisch-ironisierend reflektiert und Sprache als einen krisenhaften Zugang zu Welt und Kosmos ins Spiel bringt. Sie legt dar, dass Melvilles opus magnum ein im Verlaufe der abendländischen Philosophie epistemologisch und semiologisch virulent gewordenes Krisenbewusstsein vom "Phantasma der Umfassung der Wirklichkeit" (Lyotard) einerseits auf inhaltlicher und andererseits autoreferentiell auf der Ebene der écriture inszeniert. Entsprechend wird davon ausgegangen, dass die vom Text absorbierten Diskurse in ihrer schieren Vielzahl nicht als partikulare Bezüge hermeneutisch isoliert werden können, sondern stattdessen in ihrer Heterogenität selbst die zentrale Problematik illustrieren, in deren Dienst sie als konstitutive Elemente stehen: Statt positiven Sinn zu stiften, verunmöglichen sie jegliche interpretatorische Direktive und verweisen dadurch auf eine dem Roman inhärente negative Dimension von Sinn – sie sind also vielmehr Bestandteile eines verhandelten Problems als dessen Lösung. Nicht nur in den cetologischen Abschnitten des Romans – gleichwohl dort am offenkundigsten – lässt sich Melvilles spielerisch-dekonstruktiver Umgang mit westlichen Wissens- und Denkmodellen erkennen: Dringt man in ahabischer Manie(r) in das semantische Feld des Romans auf der Suche nach einem letzten Grund, einer inferentiellen Letztbegründung, gerät man in einen infiniten regressiven Strudel, der jede getroffene semantische Arretierung auf die Bedingungen ihrer Möglichkeit hin befragt und dadurch wieder aufbricht. Eine ishmaelische Lektüre des Moby-Dick bestünde darin, den Anspruch auf Letztbegründetheit im Sinne der différance Derridas aufzuschieben und sich damit der Gravitation eines transzendentalen Signifikats zu entziehen. Liest man die cetologischen Kapitel vor diesem Hintergrund, kann man in ihnen – so eine der zentralen Thesen der Arbeit – eine autoreferentielle Kontrastfolie erkennen, eine negative Exemplifikation dessen, wie sich der Moby-Dick nicht erfassen lässt: gewissermaßen eine Lektüreanleitung ex negativo. Wesentliche Merkmale der Melvilleschen écriture sind Ambivalenz, Parodie und Dialogizität. Er verwendet stilistische und motivische Versatzstücke, destruiert sie und unterläuft so permanent die Ernsthaftigkeit der den Roman strukturierenden Schicksalszeichen wie auch die interpretativen Anstrengungen des Lesers. Die Autorität des eigenen Diskurses wird ironisch unterminiert und der Text damit in einer Schwebe zwischen Parodie und Monomanie, Unabschließbarkeit und Universalanspruch gehalten. Als die figurativen Kraftfelder dieser konkurrierenden Paradigmen stehen Ahab und Ishmael auf der Handlungsebene personifizierend für die paradoxe Konstellation des gesamten Textes, der nicht die Auflösung oder Aufhebung seiner konfliktiven Elemente sucht, sondern als ästhetischer Ausdruck des Paradoxen feste Orientierungspunkt vorenthält. Anstatt beide Figuren und die ihnen zugrundeliegenden epistemologischen Strategien antagonistisch in Opposition zueinander zu stellen, begreift diese Arbeit sie als komplementäre Elemente eines romantischen Metatextes, der sie in eine konfliktive Rezeption einfasst. In Analogie zum Konzept der romantischen Ironie Friedrich Schlegels wird Ahab hierbei als prototypischer Allegorisierer begriffen, wohingegen Ishmael als Ironiker für die Relativierung derartig monomanischer Kraftakte steht – zwischen Anspannung und Abspannung, Unbedingtem und Bedingtem baut sich jene Dynamik auf, die den gesamten Text durchwaltet. Im Sinne der romantischen Universalpoesie ist der Moby-Dick nicht auf einen systemischen Abschluss hin orientiert, sondern besteht auf/aus seiner Unabschließbarkeit: Heterogenität, Inkonsequenz, Verworrenheit und mitunter Unverständlichkeit sind demnach keine Folgen kompositorischer Nachlässigkeit, sondern in ihrer Gesamtheit als das performative Moment der eigentlichen Mitteilung zu begreifen. KW - Melville KW - Moby-Dick KW - Romantik KW - Postmoderne KW - Metaphorologie KW - Melville KW - Moby-Dick KW - Romanticism KW - Postmodernism KW - Metaphorology Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43073 ER - TY - BOOK A1 - Richter, Angelika T1 - Klassifikationen von Computerspielen T1 - Classifications of computer games N2 - Klassifikationen von Computerspielen widmet sich den Begriffen, mit denen Computerspiele zu Klassifikationszwecken versehen werden. Eine repräsentative Auswahl an derartigen Klassifikationsmodellen, die die Arbeiten von Designern, Journalisten, Pädagogen, Laien und expliziten Computerspielforschern abdeckt, wird vorgestellt und hinsichtlich ihrer Anwendbarkeit zur eindeutigen Bestimmung konkreter Spiele bewertet. Dabei zeigen sich zwei grundlegend verschiedene Herangehensweisen an die Problematik: „Kategorisierungen“ stellen feste Kategorien auf, in die einzelne Spiel eindeutig einsortiert werden sollen, während „Typologien“ die einzelnen Elemente von Spielen untersuchen und klassifizieren. Beide Ansätze werden analysiert und ihre jeweiligen Vor- und Nachteile aufgezeigt. Da offensichtlich wird, dass die Klassifikation von Computerspielen in bedeutendem Maße vom jeweiligen zugrunde liegenden Verständnis davon, was ein „Computerspiel“ sei, abhängt, ist der Untersuchung der Klassifikationsmodelle eine Betrachtung dieser problematischen Begriffsdefinition vorangestellt, die beispielhaft an vier ausgewählten Aspekten durchgeführt wird. N2 - Classifications of computer games is concerned with the terms that are used to label computer games for classificatory purposes. A representative selection of such classification models, that covers the works of designers, journalists, pedagogues, laymen and explicit computer game researchers, are introduced and assessed with regard to their ability to classify specific games unambiguously. Two essentially different approaches to this problem are identified: “categorizations” establish rigid categories to which single games are to be assigned unambiguously, while “typologies” examine and classify single elements of games and not games as a whole. Both methods are analysed and their advantages and disadvantages are shown. As it becomes obvious that classifying computer games is highly dependent on the respective basic understanding of what a computer game is, the study of the classification models is preceded by an overview which discusses four chosen aspects as examples of this problematic definition. T3 - DIGAREC Series - 05 KW - Computerspiele KW - Videospiele KW - Klassifikation KW - Typologie KW - Ludologie KW - computer games KW - video games KW - classification KW - typology KW - ludology Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43901 SN - 978-3-86956-076-2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Creutzfeldt, Noah Angelo Benjamin T1 - The effect of water storages on temporal gravity measurements and the benefits for hydrology T1 - Der Effekt von Wasserspeicher auf zeitabhängige Gravitationsmessungen und der Nutzen für die Hydrologie N2 - Temporal gravimeter observations, used in geodesy and geophysics to study variation of the Earth’s gravity field, are influenced by local water storage changes (WSC) and – from this perspective – add noise to the gravimeter signal records. At the same time, the part of the gravity signal caused by WSC may provide substantial information for hydrologists. Water storages are the fundamental state variable of hydrological systems, but comprehensive data on total WSC are practically inaccessible and their quantification is associated with a high level of uncertainty at the field scale. This study investigates the relationship between temporal gravity measurements and WSC in order to reduce the hydrological interfering signal from temporal gravity measurements and to explore the value of temporal gravity measurements for hydrology for the superconducting gravimeter (SG) of the Geodetic Observatory Wettzell, Germany. A 4D forward model with a spatially nested discretization domain was developed to simulate and calculate the local hydrological effect on the temporal gravity observations. An intensive measurement system was installed at the Geodetic Observatory Wettzell and WSC were measured in all relevant storage components, namely groundwater, saprolite, soil, top soil and snow storage. The monitoring system comprised also a suction-controlled, weighable, monolith-filled lysimeter, allowing an all time first comparison of a lysimeter and a gravimeter. Lysimeter data were used to estimate WSC at the field scale in combination with complementary observations and a hydrological 1D model. Total local WSC were derived, uncertainties were assessed and the hydrological gravity response was calculated from the WSC. A simple conceptual hydrological model was calibrated and evaluated against records of a superconducting gravimeter, soil moisture and groundwater time series. The model was evaluated by a split sample test and validated against independently estimated WSC from the lysimeter-based approach. A simulation of the hydrological gravity effect showed that WSC of one meter height along the topography caused a gravity response of 52 µGal, whereas, generally in geodesy, on flat terrain, the same water mass variation causes a gravity change of only 42 µGal (Bouguer approximation). The radius of influence of local water storage variations can be limited to 1000 m and 50 % to 80 % of the local hydro¬logical gravity signal is generated within a radius of 50 m around the gravimeter. At the Geodetic Observatory Wettzell, WSC in the snow pack, top soil, unsaturated saprolite and fractured aquifer are all important terms of the local water budget. With the exception of snow, all storage components have gravity responses of the same order of magnitude and are therefore relevant for gravity observations. The comparison of the total hydrological gravity response to the gravity residuals obtained from the SG, showed similarities in both short-term and seasonal dynamics. However, the results demonstrated the limitations of estimating total local WSC using hydrological point measurements. The results of the lysimeter-based approach showed that gravity residuals are caused to a larger extent by local WSC than previously estimated. A comparison of the results with other methods used in the past to correct temporal gravity observations for the local hydrological influence showed that the lysimeter measurements improved the independent estimation of WSC significantly and thus provided a better way of estimating the local hydrological gravity effect. In the context of hydrological noise reduction, at sites where temporal gravity observations are used for geophysical studies beyond local hydrology, the installation of a lysimeter in combination with complementary hydrological measurements is recommended. From the hydrological view point, using gravimeter data as a calibration constraint improved the model results in comparison to hydrological point measurements. Thanks to their capacity to integrate over different storage components and a larger area, gravimeters provide generalized information on total WSC at the field scale. Due to their integrative nature, gravity data must be interpreted with great care in hydrological studies. However, gravimeters can serve as a novel measurement instrument for hydrology and the application of gravimeters especially designed to study open research questions in hydrology is recommended. N2 - Zeitabhängigen Gravimetermessungen, die in der Geodäsie und der Geophysik eingesetzt werden, um Variationen des Erdschwerefelds zu messen, werden durch lokale Wasserspeicheränderungen beeinflusst und verursachen – aus dieser Perspektive – ein hydrologisches Störsignal in den Gravimetermessungen. Gleichzeitig bietet der Teil des Gravimetersignals, der durch Wasserspeicheränderungen hervorgerufen wird, das Potential wichtige Informationen über hydrologische Speicher zu gewinnen, da zwar Wasserspeicher eine grundlegende Zustandsgröße hydrologischer Systeme darstellt, jedoch ihre Quantifizierung mit einem hohen Maß an Unsicherheiten auf der Feldskala behaftet ist. Diese Studie untersucht die Beziehung zwischen zeitabhängigen Gravimetermessungen und Wasserspeicheränderungen, um die Gravimetermessungen von dem hydrologischen Störsignal zu bereinigen und um den Nutzen der Gravimetermessungen für die Hydrologie zu erkunden. Dies geschieht am Beispiel des Supraleitgravimeters (SG) des Geodätischen Observatoriums Wettzell in Deutschland. Ein 4D Vorwärtsmodel mit einer räumlich genesteten Diskretisierungsdomäne wurde entwickelt, um die lokalen hydrologischen Masseneffekte auf Gravimetermessungen zu simulieren. Des Weiteren wurde ein intensives Messsystem am Geodätischen Observatorium Wettzell installiert, um die Wasserspeicheränderungen in allen relevanten Speicherkomponenten, also im dem Grundwasser, in der ungesättigten Zone und im Schneespeicher zu messen. Das Monitoringsystem beinhaltete auch einen wägbaren, monolithischen Lysimeter mit Matrixpotentialübertragung, der es uns ermöglichte, zum ersten Mal einen Lysimeter direkt mit einem Gravimeter zu vergleichen. Die Lysimetermessungen wurden in Kombination mit komplementären hydrologischen Beobachtungen und einem 1D-Modell verwendet, um die Wasserspeicheränderungen auf der Feldskala zu bestimmen. Die Gesamtwasserspeicheränderungen wurden bestimmt, Unsicherheiten abgeschätzt und der hydrologische Masseneffekt auf Gravimetermessungen berechnet. Schlussendlich wurde ein einfaches, konzeptionelles, hydrologisches Modell mittels der Zeitreihen von dem SG, Bodenfeuchte- und Grundwassermessungen kalibriert und evaluiert. Das Modell wurde durch einen “Split-Sample-Test” evaluiert und basierend auf unabhängig bestimmten Wasserspeicheränderungen bestimmt auf Grundlage der Lysimetermessungen validiert. Die Simulation des hydrologischen Masseneffektes auf Gravimetermessungen zeigte, dass Wasserspeicheränderungen von einem Meter Höhe entlang der Topographie, einen Erdschwereeffekt von 52 µGal hervorriefen, während in der Geodäsie im Allgemeinen die gleiche Wassermassenvariation in flachem Terrain eine Erdschwereeffekt von nur 42 µGal (Bouguer-Platte) hervorruft. Der Einflussradius der lokalen Wasserspeicheränderungen kann auf 1000 m begrenzt werden, und 50 % bis 80 % des lokalen hydrologischen Erdschweresignals wird in einem Radius von 50 m um den Gravimeter generiert. Wasserspeichervariationen in der Schneedecke, im Oberboden, dem ungesättigten Saprolith und im gelüfteten Aquifer, sind allesamt wichtige Größen der lokalen Wasserbilanz. Mit der Ausnahme von Schnee beeinflussen alle Speicheränderungen die Gravimetermessungen in derselben Größenordnung und sind daher für die Gravimetermessungen von Bedeutung. Ein Vergleich des lokalen hydrologischen Gravitationseffektes mit den SG Residuen zeigte sowohl ereignisbezogene als auch saisonalen Übereinstimmungen. Weiterhin zeigten die Ergebnisse jedoch auch die Grenzen bei der Bestimmung der gesamten lokalen Wasserspeichervariationen mithilfe hydrologischer Punktmessungen auf. Die Ergebnisse des Lysimeter-basierten Ansatzes zeigten, dass SG Residuen mehr noch, als bisher aufgezeigt, durch lokale Wasserspeicheränderungen hervorgerufen werden. Ein Vergleich der Resultate mit anderen Methoden, die in der Vergangenheit zur Korrektur zeitabhängiger Erdschwerebeobachtungen durch Bestimmung des lokalen hydrologischen Masseneffekte verwendet wurden, zeigte, dass die unabhängige Berechnung von Wasserspeicheränderungen durch Lysimetermessungen erheblich verbessert werden kann und dass diese somit eine verbesserte Methode zur Bestimmung des lokalen hydrologischen Erdschwereeffekts darstellt. Die Installation eines Lysimeters ist somit im Zusammenhang mit einer Reduzierung des hydrologischen Störsignals und an Standorten, wo zeitabhängige Erdschwerebeobachtungen für geophysikalische Studien, die über die lokale Hydrologie hinausgehen verwendet werden, zu empfehlen. Aus hydrologischer Sicht zeigte diese Studie, dass die Verwendung von zeitabhängigen Gravimetermessungen als Kalibrierungsdaten die Modellergebnisse im Vergleich zu hydrologischen Punktmessungen verbesserten. Auf Grund ihrer Fähigkeit, über verschiedene Speicherkomponenten und ein größeres Gebiet zu integrieren, bieten Gravimeter verallgemeinerte Informationen über die Gesamtwasserspeicherveränderungen auf der Feldskala. Diese integrative Eigenschaft macht es notwendig, Erdschweredaten in hydrologischen Studien mit großer Vorsicht zu interpretieren. Dennoch können Gravimeter der Hydrologie als neuartiges Messinstrument dienen und die Nutzung von Gravimetern, die speziell für die Beantwortung noch offener Forschungsfragen der Hydrologie entwickelt wurden wird hier empfohlen. KW - Hydrogeopyhsik KW - zeitabhängige Gravitationsvariation KW - Wasserspeicheränderungen KW - Supraleitender Gravimeter (SG) KW - hydrologische Modellierung KW - Hydrogeophysics KW - temporal gravity variations KW - water storage changes KW - superconducting gravimeter (SG) KW - hydrological monitoring and modelling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48575 ER - TY - THES A1 - Kauffmann, Albrecht T1 - Das Städtesystem der Russischen Föderation aus Sicht der Neuen Ökonomischen Geographie T1 - The Russian system of cities from the perspective of New Economic Geography N2 - Der Anstieg der Energiepreise kann zu einer länger anhaltenden Verteuerung von Gütertransporten führen. Welche Auswirkungen haben steigende Transportkosten auf die Entwicklung von Städtesystemen? Ein solcher Transportkostenanstieg hat in der Russischen Föderation nach der Preisliberalisierung 1992 real, d.h. in Relation zu den Preisen anderer Gütergruppen stattgefunden. Gleichzeitig stellt die Bevölkerungsstatistik der Russischen Föderation Daten bereit, mit deren Hilfe Hypothesen zur Entwicklung von Städtesystemen unter dem Einfluss steigender Transportkosten geprüft werden können. Diese Daten werden in der vorliegenden Arbeit umfassend ausgewertet. Den theoretischen Hintergrund liefert die Modellierung eines Städtesystems mit linearer Raumstruktur im Rahmen der Neuen Ökonomischen Geographie. Damit wird ein Werkzeug geschaffen, das auch auf weiträumige Städtesysteme mit ausgeprägter Bandstruktur angewendet werden kann. Die hier erstmals erfolgte ausführliche Erläuterung des zu Grunde liegenden Theorieansatzes versteht sich als Ergänzung der Standardlehrbücher der Raumwirtschaftstheorie. Die Ergebnisse der empirischen Untersuchung bestätigen die Prognose des Modells, dass in großflächigen Ländern bzw. Regionen mit Ähnlichkeit zur unterstellten Raumstruktur ein Anstieg der Transportkosten Konzentrationstendenzen in den Zentren befördert, während die peripheren Regionen zunehmend abgekoppelt werden. N2 - The rise in energy prices may result in long-lasting rise in costs of freight transports. Which effects do rising freight transport costs have for the development of urban systems? Such rise of transport costs in real terms has happened in Russia after price liberalisation in 1992. At the same time, the Russian official demographic statistics provides data that can be used to test hypotheses concerning the development of urban systems affected by rising transport costs. In the present study, these data are comprehensively evaluated. The theoretical background is provided by modelling of a linear shaped urban system in the framework of New Economic Geography. By means of this tool, analysis can be applied to spacious urban systems with large transport distances. For the first time, the underlying theoretical approach is explained in detail. The empirical results provide evidence for the outcomes of the theoretical model: In spacious countries or regions, respectively, whose urban systems are drawn-out on long lines, rising costs of freight transport are conducive to tendencies of concentration of population in large cities in the centre of the system, while peripheral regions are increasingly disconnected. T3 - Potsdamer Schriften zur Raumwirtschaft - 2 KW - Russland KW - Städtesysteme KW - Neue Ökonomische Geographie KW - Wanderungen KW - Russia KW - urban systems KW - New Economic Geography KW - migration Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44520 SN - 978-3-86956-074-8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Borković, Vladimir T1 - Evaluation kommunaler Sportprojekte zur sozialen Integration von Heranwachsenden T1 - Evaluation of community sports projects focusing on the social integration of adolescents N2 - Gegenstand der Studie ist die Evaluation eines kommunalen Sportprojekts. Die Forschungsarbeit entstand aus der wachsenden Erkenntnis heraus, dass es nicht mehr nur um die Entwicklung und Durchführung kommunaler oder sozialer Projekte geht, sondern zunehmend darauf ankommt, die Projektarbeit zu evaluieren, um ihren Einfluss auf die kommunale, soziale und personale Entwicklung zu prüfen und in der Folge die Implementierung zu optimieren. Die unterschiedlichen Schritte in der Definition des theoretischen Rahmens, der Datenanalyse sowie der Erarbeitung der evaluativen Empfehlungen wurden unternommen mit dem Anspruch auf Modellcharakter, um für zukünftige Evaluationsvorhaben entsprechende Standards zu setzen. Die Grundidee des kommunalen Sportprojekts „Straßenfußball für Toleranz“ ist innovativ: Mädchen und Jungen erobern durch gemeinsames Fußballspielen den öffentlichen Raum. Sie spielen ohne Schiedsrichter und nach speziellen Regeln. Das Projekt richtet sich ausdrücklich an sozial benachteiligte Jugendliche und bezieht gleichermaßen Jungen wie Mädchen ein. N2 - The objective of the study is the evaluation of a community sports project. The thesis originated from the growing perception that it is not only about initiating and implementing a communal or social project but that the focus is increasingly also on the evaluation of the project work in order to measure its impact on communal, social and personal development and to optimise the implementation as a consequence. The different steps in the definition of the theoretical framework, the data analysis as well as the formulation of the evaluative recommendations were conducted with the pretension to set standards for future evaluation projects. The basic concept of the community sports project “Street Football for Tolerance” is innovative: boys and girls jointly conquer public spaces by playing football. They play without a referee and according to special rules. The project explicitly reaches out to socially disadvantaged adolescents, with the aim that boys and girls are equally involved. KW - Evaluation KW - Sozialisation KW - soziale Integration KW - Straßenfußball KW - evaluation KW - socialisation KW - social integration KW - street football Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48186 SN - 978-3-86956-051-9 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Kaltschew, Kristian T1 - Das politische System Kenias : Autokratie versus Demokratie N2 - Kenia erlangt Anfang der 1960er seine Unabhängigkeit und wird in der Folge von den Präsidenten Kenyatta und später Moi autoritär regiert. Als Konsequenz des internationalen und nationalen Druckes werden 1991 wieder Mehrparteienwahlen zugelassen. Die Hoffnungen auf einen Trendwechsel werden zunächst aber nicht erfüllt. Präsident Moi bleibt bei den Wahlen 1992 und 1997 siegreich und versucht jeden möglichen Reformprozess aufzuhalten bzw. zu verlangsamen. Mit dem neu gewählten Präsidenten Kibaki entsteht 2002 die Hoffnung auf Veränderung. Aber als alter Wegbegleiter Mois erfüllt Kibaki nicht die internationalen und nationalen Erwartungen. Moi und Kibaki organisieren jeweils kontra-demokratische Eliten hinter sich und nutzen das mächtige Präsidentenamt, die stärkste Institution im politischen System Kenias, um den Status quo so lange wie möglich zu erhalten. Die Parteien werden weder durch die Regierung noch durch die Opposition zu starken Institutionen transformiert und das unstete Verhalten der Geberländer vermag den Einfluss der autoritären Führung nicht dauerhaft einzuschränken. T3 - WeltTrends Thesis - 10 KW - Kenia KW - Demokratie KW - Autokratie KW - Geschichte KW - Afrika KW - Kenya KW - democrazy KW - autocracy KW - history KW - Africa Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47947 SN - 978-3-86956-097-7 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Stock, Maria T1 - Charakterisierung der troposphärischen Aerosolvariabilität in der europäischen Arktis T1 - Characterization of tropospheric aerosol variability in the european Arctic N2 - Auf der Grundlage von Sonnenphotometermessungen an drei Messstationen (AWIPEV/ Koldewey in Ny-Ålesund (78.923 °N, 11.923 °O) 1995–2008, 35. Nordpol Driftstation – NP-35 (84.3–85.5 °N, 41.7–56.6 °O) März/April 2008, Sodankylä (67.37 °N, 26.65 °O) 2004–2007) wird die Aerosolvariabilität in der europäischen Arktis und deren Ursachen untersucht. Der Schwerpunkt liegt dabei auf der Frage des Zusammenhanges zwischen den an den Stationen gemessenen Aerosolparametern (Aerosol optische Dicke, Angström Koeffizient, usw.) und dem Transport des Aerosols sowohl auf kurzen Zeitskalen (Tagen) als auch auf langen Zeitskalen (Monate, Jahre). Um diesen Zusammenhang herzustellen, werden für die kurzen Zeitskalen mit dem Trajektorienmodell PEP-Tracer 5-Tage Rückwärtstrajektorien in drei Starthöhen (850 hPa, 700 hPa, 500 hPa) für die Uhrzeiten 00, 06, 12 und 18 Uhr berechnet. Mit Hilfe der nicht-hierarchischen Clustermethode k-means werden die berechneten Rückwärtstrajektorien dann zu Gruppen zusammengefasst und bestimmten Quellgebieten und den gemessenen Aerosol optischen Dicken zugeordnet. Die Zuordnung von Aerosol optischer Dicke und Quellregion ergibt keinen eindeutigen Zusammenhang zwischen dem Transport verschmutzter Luftmassen aus Europa oder Russland bzw. Asien und erhöhter Aerosol optischer Dicke. Dennoch ist für einen konkreten Einzelfall (März 2008) ein direkter Zusammenhang von Aerosoltransport und hohen Aerosol optischen Dicken nachweisbar. In diesem Fall gelangte Waldbrandaerosol aus Südwestrussland in die Arktis und konnte sowohl auf der NP-35 als auch in Ny-Ålesund beobachtet werden. In einem weiteren Schritt wird mit Hilfe der EOF-Analyse untersucht, inwieweit großskalige atmosphärische Zirkulationsmuster für die Aerosolvariabilität in der europäischen Arktis verantwortlich sind. Ähnlich wie bei der Trajektorienanalyse ist auch die Verbindung der atmosphärischen Zirkulation zu den Photometermessungen an den Stationen in der Regel nur schwach ausgeprägt. Eine Ausnahme findet sich bei der Betrachtung des Jahresganges des Bodendruckes und der Aerosol optischen Dicke. Hohe Aerosol optische Dicken treten im Frühjahr zum einen dann auf, wenn durch das Islandtief und das sibirische Hochdruckgebiet Luftmassen aus Europa oder Russland/Asien in die Arktis gelangen, und zum anderen, wenn sich ein kräftiges Hochdruckgebiet über Grönland und weiten Teilen der Arktis befindet. Ebenso zeigt sich, dass der Übergang zwischen Frühjahr und Sommer zumindest teilweise bedingt ist durch denWechsel vom stabilen Polarhoch im Winter und Frühjahr zu einer stärker von Tiefdruckgebieten bestimmten arktischen Atmosphäre im Sommer. Die geringere Aerosolkonzentration im Sommer kann zum Teil mit einer Zunahme der nassen Deposition als Aerosolsenke begründet werden. Für Ny-Ålesund wird neben den Transportmustern auch die chemische Zusammensetzung des Aerosols mit Hilfe von Impaktormessungen an der Zeppelinstation auf dem Zeppelinberg (474m ü.NN) nahe Ny-Ålesund abgeleitet. Dabei ist die positive Korrelation der Aerosoloptischen Dicke mit der Konzentration von Sulfationen und Ruß sehr deutlich. Beide Stoffe gelangen zu einem Großteil durch anthropogene Emissionen in die Atmosphäre. Die damit nachweisbar anthropogen geprägte Zusammensetzung des arktischen Aerosols steht im Widerspruch zum nicht eindeutig herstellbaren Zusammenhang mit dem Transport des Aerosols aus Industrieregionen. Dies kann nur durch einen oder mehrere gleichzeitig stattfindende Transformationsprozesse (z. B. Nukleation von Schwefelsäurepartikeln) während des Transportes aus den Quellregionen (Europa, Russland) erklärt werden. N2 - On the base of sun photometer measurements conducted at three different research stations (AWIPEV/Koldewey in Ny-Ålesund (78.923 °N, 11.923 °E) 1995-2008, 35. Northpole Drifting Station – NP-35 (84.3–85.5 °N, 41.7–56.6 °E) March/April 2008, Sodankylä (67.37 °N, 26.65 °E) 2004-2007) the aerosol variability in the european Arctic and their cause is analyzed. The main focus is to quantify the correlation between the measured aerosol parameters (aerosol optical depth, Angström coefficient, etc.) and the transport of aerosol from Europe and Russia on short timescales (days) as well as on long timescales (months, years). For the short timescales 5-day backward trajectories were calculated with the trajectory model PEP-Tracer at three different starting heights (850 hPa, 700 hPa, 500 hPa) four times the day (00:00, 06:00, 12:00, 18:00 UTC). Afterwards the non-hierarchical cluster method k-means is used to group the backward trajectories in differend aerosol source regions and allocate to the respective sun photometer measurements. This allocation of aerosol source region and sun photometer measurements does not show a correlation between polluted air mass of european or russian/asian origin and enhanced aerosol optical depth. However, in one case (March 2008) a clear influence of anthropogenic aerosol on the photometer measurements occurs. In March 2008, aerosol originating at forest fires in southeast Russia was transported into the Arctic and detected over NP-35 as well as Ny-Ålesund. Furthermore, the EOF method is used to verify if large-scale atmospheric circulation patterns determine the arctic aerosol variability. However, the connection to the sun photometer measurements is very weak except for seasonal variability. It is shown, that in spring-time due to the Iclandic low and the Siberian high, air masses from Europe and Russia as well as a strong high pressure system at Greenland and most parts of the Arctic cause higher aerosol optical depths in Ny-Ålesund. The transition from spring to summer aerosol concentration can at least partially be assigned to the replacement of the stable polar high in winter and spring by low pressure systems in summer. In addition to the transport pattern, chemical composition of the scattering aerosol in Ny-Ålesund was deduced from measurements by the Zeppelin station at the Zeppelin mountain (474m above sea level) near Ny-Ålesund. A clear positive correlation between sulfate and black carbon concentration was found. Both chemicals are mostly emitted through anthropogenic processes (e.g. combustion). The verifiable anthropogenic influence on the composition of arctic aerosols disagree with the missing linkage of transport from industrial regions to aerosol optical depth. It can only be explained by one or more transformation processes (e.g. nucleation of sulfuric acid) during the transport from the source regions (Europe, Russia) to the Arctic. KW - Aerosol KW - Arktis KW - Trajektorien KW - EOF KW - Luftmassentransport KW - aerosol KW - Arctic KW - trajectories KW - EOF KW - air mass transport Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49203 ER - TY - THES A1 - Reinke, Sebastian T1 - Privatisierung des Maßregelvollzugs nach §§ 63, 64 StGB, § 7 JGG und der Aufgaben nach §§ 81, 126a StPO - dargestellt am Beispiel des Brandenburger Modells T1 - Privatisation of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO - shown with the help of the Brandenburg model N2 - Obwohl Privatisierung in den letzten Jahren und Jahrzehnten ein Kernthema nicht nur der rechtswissenschaftlichen Debatte gewesen ist, wurde der Bereich der Privatisierung des Maßregelvollzugs nach §§ 63, 64 StGB, § 7 JGG sowie der Aufgaben nach §§ 81, 126a StPO insoweit vernachlässigt. Vor dem Hintergrund hauptsächlich fiskalischer Erwägungen und den Möglichkeiten einer Flucht aus dem Beamten- und dem Haushaltsrecht geraten zunehmend auch solche Bereiche in den Blickpunkt von Privatisierungsüberlegungen, die bisher selbstverständlich dem Bereich staatlicher Tätigkeit zugerechnet werden. Der Staat versteht sich zunehmend als Gewährleistungsstaat, der staatliche Aufgaben nicht mehr eigenhändig erfüllt, sondern sich hierfür der Leistung Dritter bedient. Bislang wurden der Maßregelvollzug nach §§ 63, 64 StGB und § 7 JGG sowie die Unterbringung zur Beobachtung des Beschuldigten nach § 81 StPO und die einstweilige Unterbringung nach § 126a StPO durch den Staat in den (staatlichen) Landeskliniken vollzogen. Auf der im Jahr 2004 eingeführten Rechtsgrundlage des § 36 Abs. 3 S. 2 und S. 5 BbgPsychKG entwickelte das Land Brandenburg ein Modell, um die Durchführung der genannten Aufgaben zu privatisieren, und gliederte die Landeskliniken im Jahr 2006 aus der Landesverwaltung aus. Der Autor untersucht die verfassungsrechtliche Zulässigkeit dieses Privatisierungsvorhabens in formeller und materieller Hinsicht. Eine Besonderheit der Veröffentlichung besteht darin, dass die Arbeit konkrete Aussagen zur Ausgestaltung des Regel-Ausnahme-Verhältnisses des Funktionsvorbehalts nach Art. 33 Abs. 4 GG enthält. Daran fehlte es bislang. Daneben untersucht der Autor einfachgesetzliche Grenzen für Privatisierungen des Maßregellzugs nach §§ 63, 64 StGB, § 7 JGG und der Aufgaben nach §§ 81, 126a StPO sowie solche Privatisierungsgrenzen, die sich aus internationalen Menschenrechtsstandards ergeben. N2 - Although privatisation has been a main subject not only the legal-scientific debate during the last years and decades, the area of the privatisation of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO was neglected in this respect. Before the background of primarily fiscal considerations and the possibilities of an escape from the official's right and the budgetary right, such areas get increasingly also in the point of view of the privatisation considerations which are added up to now of course to the area of state activity. The state gets on increasingly as a guarantee state which does not fulfil state duties any more own-handed, but for this of the achievement third helps himself. Up to now the hospital order treatment after §§ 63, 64 StGB and § 7 JGG as well as the accommodation to the observation of the culprit after § 81 StPO and the temporary accommodation after § 126a StPO were carried out by the state in the (state) land medical centres. On the legal basis § 36 paragraph 3 p. 2 and p. 5 BbgPsychKG, introduced in 2004, the State of Brandenburg developed a model to privatise the realisation of the called duties, and separated the land medical centres in 2006 from the land management. The author examines the constitutional-juridical admissibility of this privatisation plan in formal and material regard. A specific feature of the publication consists in it, that the work concrete statements to the arrangement of the control exception relation of the functional reservation after article 33 paragraphs 4 GG contains enough. There was not this up to now. Besides the author examines easy-legal borders for privatisations of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO as well as such privatisation borders which arise from international standards of human rights. KW - Privatisierung KW - Maßregelvollzug KW - §§ 81 KW - 126a StPO KW - Funktionsvorbehalt KW - Brandenburg KW - privatisation KW - hospital order treatment KW - §§ 81 KW - 126a StPO KW - functional reservation KW - Brandenburg Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48428 SN - 978-3-86956-101-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK ED - Bircken, Margrid ED - Lüdecke, Marianne ED - Peitsch, Helmut T1 - Brüche und Umbrüche BT - Frauen, Literatur und soziale Bewegungen Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-46029 SN - 978-3-86956-085-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Dietrich, Irina A1 - Strohe, Hans Gerhard T1 - Die Vermögenslage öffentlicher Unternehmen in Deutschland : statistische Analyse anhand von amtlichen Mikrodaten der Jahresabschlüsse N2 - Das Erkenntnisziel der Analyse der Vermögenslage ist die Gewinnung von Informationen über das Vermögen eines Unternehmens und seine Investitionstätigkeiten. In dieser Arbeit stellt das Definitionssystem der Jahresabschlussanalyse (in der Fachliteratur auch Bilanzanalyse genannt) die theoretische Grundlage für die statistische Analyse der Vermögenslage in der Gesamtheit öffentlicher Unternehmen dar. Die Vermögenslage wird mit Hilfe der aus der Bilanz ablesbaren Kennzahlen analysiert. Dabei stellen die Posten der Bilanz ursprüngliche Merkmale dar, auf deren Grundlage die zu untersuchenden Merkmale – Kennzahlen der Vermögenslage gebildet werden. Da die Heterogenität öffentlicher Unternehmen die Vergleichbarkeit der untersuchten Kennzahlen erschwert, stellt die Aufbereitung der Bilanz (Bildung der Strukturbilanz) in diesem Zusammenhang einen wichtigen Zwischenschritt in der Analyse dar, der allerdings schon dem Wirtschaftsprüfer erhebliche Kopfschmerzen bereiten kann, geschweige dem Statistiker. Eine einheitliche Strukturbilanz soll die Vergleichbarkeit der Bilanzkennzahlen gewähren. Die Vorgehensweise bei der Aufbereitung der Bilanz für eine Strukturbilanz wird in der Fachliteratur nicht eindeutig festgelegt. Die fachlichen Beiträge dort bestehen überwiegend aus Hinweisen und Empfehlungen zum Vorgehen in einzelnen Untenehmen, was natürlich gut nachzuvollziehen ist, da jedes Unternehmen eine eigene Spezifik hat. An dieser Stelle muss jedoch ein Statistiker, der sich weniger mit den einzelnen Fällen beschäftigt, sondern die Massenphänomene untersucht, auf eine einheitliche Variante der Bilanzaufbereitung zurückgreifen. Auf die Besonderheiten der Datenaufbereitung für öffentliche Unternehmen und die Bildung der Strukturbilanz soll an dieser Stelle nicht eingegangen werden. In dem folgenden Abschnitt werden die zu untersuchenden Merkmale - Kennzahlen der Vermögenslage definiert. Diesem schließt sich der Abschnitt mit den empirischen Ergebnissen an. Die Berechnungen wurden sowohl für die ganze Grundgesamtheit öffentlicher Unternehmen als auch an einigen Stellen für ihre einzelnen Klassen durchgeführt. T3 - Statistische Diskussionsbeiträge - 42 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48545 ER - TY - RPRT A1 - Petersen, Hans-Georg T1 - Steuern in Fragilen Staaten BT - Empfehlungen für die Entwicklungszusammenarbeit T2 - Finanzwissenschaftliche Diskussionsbeiträge N2 - Fragile states are characterized by institutions which do not have the political will or ability to reduce poverty in the interests of their citizen, to establish basic social security, to promote a successful development process, and to guarantee security and human rights. The regional disintegration processes after the period of imperialism and the fall of the iron curtain have created many new states, which still are politically unstable and unable for a sustainable development. In the literature such states are describes as "weak", "failing or failed", "collapsed", "conflict or post-conflict" - dependant on the extent of the particular state failure. Several indicators try to describe such states and partly allow for projections of the future development. Then the role of taxation is discussed in detail before recommendations for the development cooperation are presented. Obviously taxation plays a key role for the democratization process in fragile states. T3 - Finanzwissenschaftliche Diskussionsbeiträge - 61 KW - fragile state KW - state theory KW - stable states KW - fragility index KW - taxation KW - shadow economy KW - tax administration KW - development cooperation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48465 SN - 1864-1431 SN - 0948-7549 IS - 61 ER - TY - THES A1 - Friedrich, Maika T1 - Wirkung von Teecatechin Epigallocatechingallat auf den Energiestoffwechsel der Maus T1 - Effect of tea catechin epigallocatechin gallate on energy metabolism in mice N2 - Die gesundheitsfördernden Eigenschaften von grünem Tee sind weitgehend akzeptiert. Den Teecatechinen, insbesondere dem Epigallocatechin-3-gallat (EGCG), werden zahlreiche positive Effekte zugesprochen (z. B. antioxidativ, antikanzerogen, antiinflammatorisch, Blutdruck und Cholesterinspiegel senkend). Die Mechanismen, die zu einer Reduktion der in Tierversuchen beschriebenen Körper- und Fettmasse führen, sind nicht ausreichend geklärt. Ziel dieser Arbeit bestand darin, die kurz- und mittelfristigen Wirkungen einer TEAVIGO®-Applikation (mind. 94 % EGCG) am Mausmodell im Hinblick auf den Energie- und Fettstoffwechsel sowie die Expression daran beteiligter Gene in wichtigen Organen und Geweben zu untersuchen. In verschiedenen Tierversuchen wurde männlichen C57BL/6-Mäusen eine Hochfettdiät (HFD) mit und ohne Supplementation (oral, diätetisch) des entkoffeinierten Grüntee-Extraktes TEAVIGO® in unterschiedlichen Dosierungen gefüttert. Es wurden sowohl kurz- als auch mittelfristige Wirkungen des EGCG auf die Energiebilanz (u. a. indirekte Tierkalorimetrie) und Körperzusammensetzung (NMR) sowie die exogene Substratoxidation (Stabilisotopentechnik: Atemtests, Inkorporation natürlicher 13C-angereicherter Triglyceride aus Maiskeimöl in diverse Organe/Gewebe) und Gen-expression (quantitative real-time PCR) untersucht. Die Applikationsform und ihre Dauer riefen unterschiedliche Wirkungen hervor. Mäuse mit diätetischer Supplementation zeigten bereits nach kurzer Zeit eine verminderte Körperfettmasse, die bei weiterer Verabreichung auch zu einer Reduktion der Körpermasse führte. Beide Applikationsformen resultieren, unabhängig von der Dauer der Intervention, in einer erhöhten Energieausscheidung, während die Futter- und Energieaufnahme durch EGCG nicht beeinflusst wurden. Der Energieverlust war von einer erhöhten Fett- und Stickstoffausscheidung begleitet, deren Ursache die in der Literatur beschriebene Interaktion und Hemmung digestiver Enzyme sein könnte. Besonders unter postprandialen Bedingungen wiesen EGCG-Mäuse erniedrigte Triglycerid- und Glycogengehalte in der Leber auf, was auf eine eingeschränkte intestinale Absorption der Nährstoffe hindeutet. Transkriptanalysen ergaben im Darm eine verminderte Expression von Fettsäuretransportern, während die Expression von Glucosetransportern durch EGCG erhöht wurde. Weiterhin reduzierte EGCG, nach Umstellung von Standard- auf eine maiskeimölhaltige Hochfettdiät, die Inkorporation natürlicher 13C-angereicherter Triglyceride in diverse Organe und Gewebe – insbesondere Leber, viszerales und braunes Fettgewebe sowie Skelettmuskel. Die Analyse der 13C-Anreicherung im Atem der Mäuse und die Energieumsatzmessungen ergaben nach kurzer Applikation eine erhöhte Fettoxidation, die im weiteren Verlauf der Intervention auf eine erhöhte Kohlenhydratoxidation umgeschaltet wurde. Weiterhin war die orale Applikation von EGCG bei gleichzeitiger Fütterung einer Hochfettdiät von makroskopischen und mikroskopischen degenerativen Veränderungen der Leber begleitet. Diese Effekte wurden nach diätetischer Supplementation der Hochfettdiät mit EGCG nicht beobachtet. Zusammenfassend zeigen die Ergebnisse, dass die Körpergewichts- und Fettgewebs-abnahme durch diätetisches EGCG sich durch eine herabgesetzte Verdaulichkeit der Nahrung erklären lässt. Dies führte zu verschiedenen kurz- und mittelfristigen Veränderungen in der Fettverteilung und im Fettmetabolismus. N2 - The health-promoting properties of green tea are widely accepted. Tea catechins, particularly epigallocatechin-3-gallate (EGCG), are attributed to many positive effects (anti-oxidative, anti-cancerogen, anti-inflammatory, blood pressure and cholesterol lowering). Mechanisms leading to a reduction of body mass and fat mass in animal experiments are not fully elucidated. The aim of this study was to examine multiple effects of TEAVIGO® application (at least 94% EGCG) in a mouse model in terms of energy and fat metabolism. Expressions of genes involved in these processes were also determined in different organs and tissues. In several animal studies, male C57BL/6 mice were fed a high fat diet supplemented with decaffeinated TEAVIGO® (oral, dietetic) at different dosages. Short- and medium-term effects of EGCG were investigated on energy balance (indirect animal calorimetry), body composition (NMR), exogenous substrate oxidation (stable isotopes: breath tests, incorporation of naturally 13C-enriched triglycerides from corn oil into various organs/tissues), and gene expression (quantitative real-time PCR). Type of application and its duration elicited different effects. Supplemented mice already showed a reduced body fat mass after short- and medium-term treatment. Further administration lead to a reduction of body weight. Regardless of the duration of intervention, both types of application resulted in an increased energy excretion, while food and energy intake was not affected by EGCG. Fecal energy loss was accompanied by an increased fat and nitrogen excretion, which was probably due to an inhibition of digestive enzymes. Fed mice displayed a decreased triglyceride and glycogen content in liver suggesting a reduced absorption of nutrients in the intestine. This was supported by a decreased expression of intestinal fatty acid transporters. However, expression of glucose transporters was increased after short- and medium term application. Furthermore, EGCG attenuated incorporation of naturally 13C-enriched triglycerides into various organs and tissues – particularly liver, visceral and brown adipose tissue, and skeletal muscle. Analysis of 13C-enrichment in breath and measurement of energy expenditure revealed an initial increased fat oxidation, which was switched to an increased carbohydrate oxidation over time. Besides, a combination of oral administration of EGCG and high fat feeding was accompanied by macroscopic and microscopic deleterious changes in liver. These effects were not observed after dietary supplementation of EGCG. Altogether, reduction in body mass and fat mass by EGCG can be explained by a decreased food digestibility leading to various short- and medium-term changes in fat distribution and lipid metabolism. KW - Grüner Tee KW - Teecatechin KW - Epigallocatechingallat KW - Energiestoffwechsel KW - Fettstoffwechsel KW - green tea KW - tea catechin KW - epigallocatechin gallate KW - energy metabolism KW - fat metabolism Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48159 ER - TY - THES A1 - Niederleithinger, Ernst T1 - Optimierung und Erweiterung der Parallel-Seismik-Methode zur Bestimmung der Länge von Fundamentpfählen T1 - Optimization and extension of the parallel seismic method for the determination of foundation pile length N2 - Das Parallel-Seismik-Verfahren dient vor allem der nachträglichen Längenmessung von Fundamentpfählen oder ähnlichen Elementen zur Gründung von Bauwerken. Eine solche Messung wird beispielsweise notwendig, wenn ein Gebäude verstärkt, erhöht oder anders als bisher genutzt werden soll, aber keine Unterlagen mehr über die Fundamente vorhanden sind. Das Messprinzip des schon seit einigen Jahrzehnten bekannten Verfahrens ist relativ einfach: Auf dem Pfahlkopf wird meist durch Hammerschlag eine Stoßwelle erzeugt, die durch den Pfahl nach unten läuft. Dabei wird Energie in den Boden abgegeben. Die abgestrahlten Wellen werden von Sensoren in einem parallel zum Pfahl hergestellten Bohrloch registriert. Aus den Laufzeiten lassen sich die materialspezifischen Wellengeschwindigkeiten im Pfahl und im Boden sowie die Pfahllänge ermitteln. Bisher wurde meist ein sehr einfaches Verfahren zur Datenauswertung verwendet, das die Länge der Pfähle systematisch überschätzt. In der vorliegenden Dissertation wurden die mathematisch-physikalischen Grundlagen beleuchtet und durch Computersimulation die Wellenausbreitung in Pfahl und Boden genau untersucht. Weitere Simulationen klärten den Einfluss verschiedener Mess- und Strukturparameter, beispielsweise den Einfluss von Bodenschichtung oder Fehlstellen im Pfahl. So konnte geklärt werden, in welchen Fällen mit dem Parallel-Seismik-Verfahren gute Ergebnisse erzielt werden können (z. B. bei Fundamenten in Sand oder Ton) und wo es an seine Grenzen stößt (z. B. bei Gründung im Fels). Auf Basis dieser Ergebnisse entstand ein neuer mathematischer Formalismus zur Auswertung der Laufzeiten. In Verbindung mit einem Verfahren zur Dateninversion, d. h. der automatischen Anpassung der Unbekannten in den Gleichungen an die Messergebnisse, lassen sich sehr viel genauere Werte für die Pfahllänge ermitteln als mit allen bisher publizierten Verfahren. Zudem kann man nun auch mit relativ großen Abständen zwischen Bohrloch und Pfahl (2 - 3 m) arbeiten. Die Methode wurde an simulierten Daten ausführlich getestet. Die Messmethode und das neue Auswerteverfahren wurden in einer Reihe praktischer Anwendungen getestet – und dies fast immer erfolgreich. Nur in einem Fall komplizierter Fundamentgeometrie bei gleichzeitig sehr hoher Anforderung an die Genauigkeit war schon nach Simulationen klar, dass hier ein Einsatz nicht sinnvoll ist. Dafür zeigte es sich, dass auch die Länge von Pfahlwänden und Spundwänden ermittelt werden kann. Die Parallel-Seismik-Methode funktioniert als einziges verfügbares Verfahren zur Fundamentlängenermittlung zugleich in den meisten Bodenarten sowie an metallischen und nichtmetallischen Fundamenten und kommt ohne Kalibrierung aus. Sie ist nun sehr viel breiter einsetzbar und liefert sehr viel genauere Ergebnisse. Die Simulationen zeigten noch Potential für Erweiterungen, zum Beispiel durch den Einsatz spezieller Sensoren, die zusätzliche Wellentypen empfangen und unterscheiden können. N2 - The Parallel Seismic (PS) method is used for determination of the unknown or undocumented depth/length of unknown foundations, mostly piles. Parallel Seismic is an established but rather not commonly used geophysical technique, which has been developed several decades ago. Currently, this method is standardized in France and included in the method catalog of the US FHWA. The principle behind PS is quite simple: an impulse is generated on top of the pile by a hammer stroke, generating elastic waves (mainly compressional) traveling downward through the pile. Due to the high impedance contrast between pile and soil, the main part of the energy remains in the pile, but some is transmitted as guided waves into the surrounding soil. After reaching the pile toe, transmitted/diffracted waves of nearly spherical front are generated. These waves are recorded by sensors (hydrophones or geophones) in a nearby borehole. From the first arrival times registered at the sensors, the apparent wave velocity is calculated, which is different above the pile toe (pile velocity) and below (soil velocity). In the conventional data analysis, the pile length is estimated based on the intersection of the two travel time branches, leading to a systematic overestimation of the length of the pile. This thesis provides a systematic treatise of the mathematical and physical foundations of wave propagation in piles and soil. Extensive numerical simulations and parametric studies have been carried out to investigate the nature of the wave-field and influence of measurement and structural parameters. The results revealed the range of applicability of Parallel Seismic, but also some limitations, e. g. in the case of rock socketed foundations or piles containing flaws. A new mathematical algorithm for data interpretation was developed based on the simulation results, which takes into account the soil layers and the borehole inclination. This novel data interpretation scheme was used in combination with different data inversion methods. A comparison of the results showed that the commonly used Levenberg-Marquardt type least squares approach gives sufficiently accurate estimations in most common scenarios. The VFSA (very fast simulated annealing) method offers some advantages (e. g. avoiding local minima under certain conditions) but is much more time consuming. The new interpretation method was successfully validated using several sets of simulated data. It proved to be not only more accurate than all other available methods, but also to extend the maximum allowable pile-borehole distance to 2 – 3 m. Besides the numerical study, several field investigations have been carried out for the purpose of this study and also in the framework of real world projects. The foundation types included secant pile walls and sheet piles. The method performed successfully in all cases but one: a highly accurate determination of the connection of a T-shaped footing. In this particular case, the inapplicability of the method was concluded after some preliminary simulations, thus avoiding unnecessary costs to the client. Performing simulations prior to the actual testing is recommended in dealing with all non-standard cases. Today, Parallel Seismic is the only method applicable on metallic and non metallic foundations which can be used without calibration. It has the largest range of all borehole methods. KW - Fundament KW - Pfahl KW - Zerstörungsfreie Prüfung KW - Parallel Seismik KW - Inversion KW - foundation KW - pile KW - non-destructive testing KW - parallel seismic KW - inversion Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49191 ER - TY - THES A1 - Ksianzou, Viachaslau T1 - Second-order nonlinear optical interactions and cascading effects in thinorganic films T1 - Nichtlineare optische Wechselwirkung zweiter Ordnung und Cascading in dünnen organischen Schichten N2 - The presented work describes new concepts of fast switching elements based on principles of photonics. The waveguides working in visible and infra-red ranges are put in a basis of these elements. And as materials for manufacturing of waveguides the transparent polymers, dopped by molecules of the dyes possessing second order nonlinear-optical properties are proposed. The work shows how nonlinear-optical processes in such structures can be implemented by electro-optical and opto-optical control circuit signals. In this paper we consider the complete cycle of fabrication of several types of integral photonic elements. The theoretical analysis of high-intensity beam propagation in media with second-order optical nonlinearity is performed. Quantitative estimations of necessary conditions of occurrence of the nonlinear-optical phenomena of the second order taking into account properties of used materials are made. The paper describes the various stages of manufacture of the basic structure of the integrated photonics: a planar waveguide. Using the finite element method the structure of the electromagnetic field inside the waveguide in different modes was analysed. A separate part of the work deals with the creation of composite organic materials with high optical nonlinearity. Using the methods of quantum chemistry, the dependence of nonlinear properties of dye molecules from its structure were investigated in details. In addition, the paper discusses various methods of inducing of an optical nonlinearity in dye-doping of polymer films. In the work, for the first time is proposed the use of spatial modulation of nonlinear properties of waveguide according Fibonacci law. This allows involving several different nonlinear optical processes simultaneously. The final part of the work describes various designs of integrated optical modulators and switches constructed of organic nonlinear optical waveguides. A practical design of the optical modulator based on Mach-Zehnder interferometer made by a photolithography on polymer film is presented. N2 - Die vorliegende Arbeit beschreibt neue Konzepte für schnelle photonische Schaltelemente. Diese Elemente basieren auf optischer Wellenleitung im sichtbaren und nahen infraroten Spektralbereich. Die Arbeit ist auf organische Wellenleiter aus transparenten, farbstoffdotierten Polymeren fokussiert, welche Chromophore mit besonders großen optischen Nichtlinearitäten zweiter Ordnung enthalten. Insbesondere wird dargestellt, wie nichtlineare optische Prozesse in derartigen Bauelementen genutzt werden können, wenn man elektrische oder optische Steuersignale einsetzt. Es wird der gesamte Her-stellungszyklus verschiedener integrierter photonischer Bauelemente betrachtet. Die Arbeit umfasst weiterhin eine detaillierte theoretische Analyse der Wellenausbreitung in Medien mit großer nichtlinearer optischer Suszeptibilität zweiter Ordnung bei hoher Lichtintensität. Unter Annahme optischer Materialkonstanten, welche den experimentell ermittelten Werten entsprechen, erfolgte eine quantitative Abschätzung für das Auftreten von Szenarien, bei denen messbare Abwei-chungen der Strahlausbreitung vom linearen Regime auftreten, z:B. das Auftreten von zeitlichen, räumlichen und spektralen Satteliten zu den im Material propagierenden Laserpulsen. Es gelang, we-sentliche Aspekte der Strahlpropagationsprozesse durch Anwendung von Jacobi-Integralfunktionen in geschlossener mathematischer Form darzustellen. Darüber hinausgehende theoretische Untersuchungen nutzten die Finite-Elemente-Methode, um die Verteilung des elektromagnetischen Feldes im Inneren optischer Wellenleiter für verschiedene Pro-pagationsmoden zu analysieren. Ein weiterer Teil der Arbeit beschäftigt sich mit organischen Kompositmaterialen, welche große opti-sche Nichtlinearitäten aufweisen. Mittels quantenchemischer Verfahren erfolgte eine detaillierte Un-tersuchung der Zusammenhänge zwischen der molekularen Struktur und den linearen sowie den nichtlinearen optischen Eigenschaften der untersuchten Farbstoffmoleküle und Polymere. In Bezug auf die Probenpräparation sind unterschiedliche Verfahren zur Schichtbildung und zur molekularen Orientierung miteinander verglichen und bewertet worden, da letztere eine Voraussetzung für das Auftreten nichtlinearer optischer Prozesse zweiter Ordnung bildet. Die Untersuchungen erstreckten sich auf Vakuumaufdampfschichten aus niedermolekularen Chromophoren und auf Polymerschich-ten, welche durch Vakuumabscheidung sowie durch Spincoating oder andere Flüssigphasenabschei-dungsverfahren hergestellt worden sind. Auf orientierenden Substraten (z.B. geriebene Schichten aus Polytetrafluoräthylen) konnte eine spontane Orientierung der deponierten Chromophore nachgewie-sen werden. Die Chromophore in Polymerschichten wurden durch Coronapolung orientiert. In der Arbeit ist zum ersten Mal vorgeschlagen worden, eine räumliche Modulation der nichtlinearen optischen Eigenschaften durch gezielte lokale Coronapolung oder andere Orientierungstechniken derart zu generieren, dass die Abfolge gepolter Domänen dem Bildungsgesetz einer modifizierten Fibonacci-Reihe mit gebrochen rationalen Zahlen gehorcht. Der Vorteil von optischen Wellenleitern mit dieser Struktur darin, dass diese mehrere unterschiedli-che nichtlineare optische Prozesse gleichzeitig unterstützen und somit eine Vielzahl neuartiger Phä-nomene auftreten kann, welche man in neuartigen photonischen Bauelementen, z.B. für die optische Informations- und Kommunikationstechnik nutzen kann. Der letzte Teil der Arbeit beschreibt den Aufbau verschiedener integrierter optischer Modulatoren und Schalter, die sich mit Hilfe das neu entwickelten Verfahrens herstellen lassen. Zukünftige Entwicklungen in der Photonik, insbesondere der optischen Informations- und Kommuni-kationstechnik werden im abschließenden Teil der Arbeit diskutiert. KW - NLO KW - SHG KW - QPM KW - Cascading KW - NLO KW - SHG KW - QPM KW - Cascading Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49186 ER - TY - BOOK A1 - Matthé, Frederic A1 - Kitschke, Dorothea A1 - Schumann, Marlen A1 - Markert, Doreen A1 - Brunner, Beatrice T1 - eTEACHiNG kompass : Anregungen für online-unterstützte Lehre. - [2. Aufl.] N2 - Der "eTEACHiNG-kompass" beinhaltet Informationen zu verschiedenen Funktionen der E-Learning-Plattform "Moodle" und weiteren digitalen Lehr-Lern-Medien. Durch Anregungen sowie konkrete Nutzungs- und Handlungsvorschläge will er deren methodisch reflektierten Einsatz in der Lehre unterstützen. Inhalt Nr. 1 Lernräume einrichten. Kursgestaltung in Moodle Nr. 2 Materialien online bereitstellen. Die Moodle-Funktion "Arbeitsmaterialien" kreativ nutzen Nr. 3 Kommunizieren, organisieren und kooperieren. Foren in Moodle verwenden Nr. 4 Lernende begleiten, Veranstaltungen evaluieren. Die Feedback-Funktion in Moodle Nr. 5 Inhalte online-unterstützt vermitteln. Mit der Moodle-Funktion "Lektion" arbeiten Nr. 6 Unterstützen und überprüfen. Mit der Moodle-Funktion "Test" arbeiten Nr. 7 Online-Glossare. Wissensspeicher im Internet Nr. 8 Kooperatives und kollaboratives Lernen im Netz Arbeiten mit Wikis. Nr. 9 Der Lernbegleiter. Lernen in Worte fassen Nr. 10 Web Based Training. Aufbereiten von Lehrinhalten für die Online-Vermittlung Nr. 11 Podcasting. Einsatzmöglichkeiten in der Hochschullehre Nr. 12 E-Learning und Urheberrecht. Verwendung geschützter Werke in Forschung und Lehre KW - E-Learning KW - E-Teaching KW - Hochschuldidaktik KW - Mediendidaktik KW - digitale Medien Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49177 ER - TY - BOOK A1 - Ranft, Florian T1 - Verspätete Wahrheitskommissionen in Theorie und Praxis T1 - Delayed truth commissions in theory and practice T3 - Potsdamer Studien zu Staat, Recht und Politik N2 - Für den Umgang post-autoritärer Gesellschaften mit den Tätern von Menschenrechtsverletzungen der Vorgängerregime gibt es zahlreiche Möglichkeiten. Neben der legalen Strafverfolgung haben sich seit Mitte der 1970er Jahre vor allem Wahrheitskommissionen als Form gegenseitiger Versöhnung zwischen Tätern und Opfern etabliert. Die vorliegende Studie gibt aus der Perspektive der vergleichenden Politikfeldforschung eine Antwort auf die Frage, welche politischen Faktoren der Wahrheitskommissionen in Uruguay, Panama und Ghana zu einer Verzögerung bei den Aufarbeitungsprozessen nach der Transition führen. Dazu werden aus der Theorie von Transitional Justice Hypothesen zur Machtverteilung, dem Ausmaß der Menschenrechtsverletzungen und den zivil-militärischen Reformen für verspätete Wahrheitskommissionen abgeleitet, welche zur Plausibilisierung der Verzögerung beitragen. Im empirisch-analytischen Teil der Arbeit wird in der Untersuchungs- und Kontrollgruppe deutlich, dass im Vergleich zu transitionsnahen Wahrheitskommissionen ein niedrigeres Niveau an Menschenrechtsverletzungen den politischen Druck für die Aufarbeitung hemmt und die Täter als demokratisch gewählte Machthaber nach der Transition kein Interesse an der Wahrheit haben (Ghana und Panama) bzw. mit den neuen Machthabern paktierten (Uruguay). Zudem zeigt die Studie, dass zivil-militärische Reformen keinen Einfluss auf die Aufarbeitung der Wahrheit haben, wie in der Literatur argumentiert wird. Auch wird angezweifelt, dass sich die politische Machtverteilung bei der Einsetzung von Wahrheitskommissionen im Gleichgewicht befindet. N2 - For dealing with former human rights violations post-conflict societies have several choices. Besides criminal prosecutions truth commissions have been set up since the mid 1970 to find a way for reconciliation between perpetrators and victims. This paper focuses on the analysis of truth commissions with a significant time span to the transitional period in a comparative manner and asks for the causal mechanisms linked to it. To explain the time lack hypotheses are tested on the balance of power, civil-military reforms and the degree of human rights violations. The analyses for the truth commissions in Uruguay, Ghana and Panama indicate that a lower degree of human rights violations and the elections of political leaders and parties closely linked to the authoritarian era foreclose the establishment process. These results are controlled by the analysis of truth commissions in Argentina, South Africa and Haiti that were directly set up after the transition. Further it is argued that civil-military reforms have no influence on the establishment of truth commissions and that the balance of power is not levelled as is argued in the literature. T3 - Potsdamer Studien zu Staat, Recht und Politik - 4 KW - Menschenrechte KW - Menschenrechtsverletzungen KW - Transitional Justice KW - Transformationsprozesse KW - Wahrheitskommissionen KW - Human Rights KW - Human Rights Violations KW - Transtional Justice KW - Transitions KW - Truth Commissions Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42033 SN - 978-3-86956-034-2 SN - 1867-2663 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Nolting, Michael A1 - Mietzner, Dana A1 - Reger, Guido T1 - Leitfaden zur Internationalisierung von Biotechnologieunternehmen N2 - Die Ergebnisse aus dreißig Fallstudien in deutschen Biotechnologieunternehmen wurden genutzt, um einen Leitfaden für Biotechnologieunternehmen zu entwickeln, der die Unternehmen im Prozess der Internationalisierung unterstützt. Der Leitfaden zur Internationalisierung umfasst: • Beschreibung relevanter Auslandsmärkte (USA, UK, Frankreich, Indien) • Auswahl geeigneter Auslandsmärkte • Ermittlung einer geeigneten Markteintrittsform • Darstellung von Good Practice in der Internationalisierung • Managementempfehlungen Im Rahmen der Fallstudien wurde die USA als wichtigster Auslandsmarkt für Dienstleistungen in der roten Biotechnologie (DLrBT) identifiziert, Großbritannien als wichtigster europäischer Markt. Auch Frankreich wurde als ein bedeutender Markt in Europa ermittelt, der für die Unternehmen jedoch sehr schwer zu bearbeiten ist aufgrund von hohen Markteintrittsbarrieren. Des weiteren wurde Indien, neben den genannten Märkten, als ein emergenter Markt in den Leitfaden aufgenommen. Mit dem Internationalisierungsleitfaden wurde ein Instrument entwickelt, das zu einer objektiveren Bewertung von Chancen und Risiken des Markteintritts in einen bestimmten Zielmarkt einen Beitrag leistet. Der Anwender wird angehalten sich systematisch mit den folgenden Themenkomplexen zu beschäftigen: • Was sind relevante k.o.-Kriterien für Zielmärkte? • Welche Umsatzchancen birgt der Zielmarkt? • Wie sind die generellen Verhältnisse im Zielmarkt (z.B. Käuferverhalten)? • Auf welche Akteure treffe ich im Zielmarkt (Kunden, Wettbewerber, Mittler)? • Wie trete ich am besten in den Markt ein? Im Leitfaden wird auch aufgezeigt, wie die Internationalisierung in „Good Practice“ Unternehmen der Biotechnologie abgelaufen ist. Die empirische Grundlage dafür bilden die Ergebnisse der Fallstudienarbeit. • Wie ist die Internationalisierung im Detail abgelaufen? • Wie erfolgte der Eintritt in Auslandsmärkte? • Was waren die Gründe für diesen Ablauf bzw. für diese Vorgehensweise? • Was waren die größten Barrieren? Im Leitfaden werden Rahmenbedingungen und Internationalisierungsstrategien diskutiert und das Born-Global Verhalten dem stufenartigen Vorgehen in der Internationalisierung gegenübergestellt und Managementempfehlungen präsentiert. Im Leitfaden werden Checklisten zur Länderauswahl, zur Einschätzung von Markteintrittsbarrieren und unternehmensinternen Kriterien für die Zielmarkterschließung angeboten. Der Leitfaden zur Internationalisierung ist eine praktische Handlungsanleitung für das Management von Biotechnologieunternehmen. Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41152 SN - 978-3-86956-040-3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Ishebabi, Harold T1 - Architecture synthesis for adaptive multiprocessor systems on chip T1 - Architektursynthese adaptiver On-Chip Multiprozessor-Systeme N2 - This thesis presents methods for automated synthesis of flexible chip multiprocessor systems from parallel programs targeted at FPGAs to exploit both task-level parallelism and architecture customization. Automated synthesis is necessitated by the complexity of the design space. A detailed description of the design space is provided in order to determine which parameters should be modeled to facilitate automated synthesis by optimizing a cost function, the emphasis being placed on inclusive modeling of parameters from application, architectural and physical subspaces, as well as their joint coverage in order to avoid pre-constraining the design space. Given a parallel program and a set of an IP library, the automated synthesis problem is to simultaneously (i) select processors (ii) map and schedule tasks to them, and (iii) select one or several networks for inter-task communications such that design constraints and optimization objectives are met. The research objective in this thesis is to find a suitable model for automated synthesis, and to evaluate methods of using the model for architectural optimizations. Our contributions are a holistic approach for the design of such systems, corresponding models to facilitate automated synthesis, evaluation of optimization methods using state of the art integer linear and answer set programming, as well as the development of synthesis heuristics to solve runtime challenges. N2 - Aktuelle Technologien erlauben es komplexe Multiprozessorsysteme auf einem Chip mit Milliarden von Transistoren zu realisieren. Der Entwurf solcher Systeme ist jedoch zeitaufwendig und schwierig. Diese Arbeit befasst sich mit der Frage, wie On-Chip Multiprozessorsysteme ausgehend von parallelen Programmen automatisch synthetisiert werden können. Die Implementierung der Multiprozessorsysteme auf rekonfigurierbaren Chips erlaubt es die gesamte Architektur an die Struktur eines vorliegenden parallelen Programms anzupassen. Auf diese Weise ist es möglich die aktuellen technologischen Unzulänglichkeiten zu umgehen, insbesondere die nicht weitersteigende Taktfrequenzen sowie den langsamen Zugriff auf Datenspeicher. Eine Automatisierung des Entwurfs von Multiprozessorsystemen ist notwendig, da der Entwurfsraum von Multiprozessorsystemen zu groß ist, um vom Menschen überschaut zu werden. In einem ersten Ansatz wurde das Syntheseproblem mittels linearer Gleichungen modelliert, die dann durch lineare Programmierungswerkzeuge gelöst werden können. Ausgehend von diesem Ansatz wurde untersucht, wie die typischerweise langen Rechenzeiten solcher Optimierungsmethoden durch neuere Methode aus dem Gebiet der Erfüllbarkeitsprobleme der Aussagenlogik minimiert werden können. Dabei wurde die Werkzeugskette Potassco verwendet, in der lineare Programme direkt in Logikprogramme übersetzt werden können. Es wurde gezeigt, dass dieser zweite Ansatz die Optimierungszeit um bis zu drei Größenordnungen beschleunigt. Allerdings lassen sich große Syntheseprobleme auf diese weise wegen Speicherbegrenzungen nicht lösen. Ein weiterer Ansatz zur schnellen automatischen Synthese bietet die Verwendung von Heuristiken. Es wurden im Rahmen diese Arbeit drei Heuristiken entwickelt, die die Struktur des vorliegenden Syntheseproblems ausnutzen, um die Optimierungszeit zu minimieren. Diese Heuristiken wurden unter Berücksichtigung theoretischer Ergebnisse entwickelt, deren Ursprung in der mathematische Struktur des Syntheseproblems liegt. Dadurch lassen sich optimale Architekturen in kurzer Zeit ermitteln. Die durch diese Dissertation offen gewordene Forschungsarbeiten sind u. a. die Berücksichtigung der zeitlichen Reihenfolge des Datenaustauschs zwischen parallelen Tasks, die Optimierung des logik-basierten Ansatzes, die Integration von Prozessor- und Netzwerksimulatoren zur funktionalen Verifikation synthetisierter Architekturen, sowie die Entwicklung geeigneter Architekturkomponenten. KW - Multiprozessor KW - rekonfigurierbar KW - Synthese KW - Parallelrechner KW - Exploration KW - Multiprocessor KW - Reconfigurable KW - High-Level Synthesis KW - Parallel Programming KW - Exploration Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41316 ER - TY - THES A1 - Childs, Liam H. T1 - Bioinformatics approaches to analysing RNA mediated regulation of gene expression T1 - Bioinformatische Methoden zur Analyse von RNA vermittelter Regulation der Gen Expression N2 - The genome can be considered the blueprint for an organism. Composed of DNA, it harbours all organism-specific instructions for the synthesis of all structural components and their associated functions. The role of carriers of actual molecular structure and functions was believed to be exclusively assumed by proteins encoded in particular segments of the genome, the genes. In the process of converting the information stored genes into functional proteins, RNA – a third major molecule class – was discovered early on to act a messenger by copying the genomic information and relaying it to the protein-synthesizing machinery. Furthermore, RNA molecules were identified to assist in the assembly of amino acids into native proteins. For a long time, these - rather passive - roles were thought to be the sole purpose of RNA. However, in recent years, new discoveries have led to a radical revision of this view. First, RNA molecules with catalytic functions - thought to be the exclusive domain of proteins - were discovered. Then, scientists realized that much more of the genomic sequence is transcribed into RNA molecules than there are proteins in cells begging the question what the function of all these molecules are. Furthermore, very short and altogether new types of RNA molecules seemingly playing a critical role in orchestrating cellular processes were discovered. Thus, RNA has become a central research topic in molecular biology, even to the extent that some researcher dub cells as “RNA machines”. This thesis aims to contribute towards our understanding of RNA-related phenomena by applying Bioinformatics means. First, we performed a genome-wide screen to identify sites at which the chemical composition of DNA (the genotype) critically influences phenotypic traits (the phenotype) of the model plant Arabidopsis thaliana. Whole genome hybridisation arrays were used and an informatics strategy developed, to identify polymorphic sites from hybridisation to genomic DNA. Following this approach, not only were genotype-phenotype associations discovered across the entire Arabidopsis genome, but also regions not currently known to encode proteins, thus representing candidate sites for novel RNA functional molecules. By statistically associating them with phenotypic traits, clues as to their particular functions were obtained. Furthermore, these candidate regions were subjected to a novel RNA-function classification prediction method developed as part of this thesis. While determining the chemical structure (the sequence) of candidate RNA molecules is relatively straightforward, the elucidation of its structure-function relationship is much more challenging. Towards this end, we devised and implemented a novel algorithmic approach to predict the structural and, thereby, functional class of RNA molecules. In this algorithm, the concept of treating RNA molecule structures as graphs was introduced. We demonstrate that this abstraction of the actual structure leads to meaningful results that may greatly assist in the characterization of novel RNA molecules. Furthermore, by using graph-theoretic properties as descriptors of structure, we indentified particular structural features of RNA molecules that may determine their function, thus providing new insights into the structure-function relationships of RNA. The method (termed Grapple) has been made available to the scientific community as a web-based service. RNA has taken centre stage in molecular biology research and novel discoveries can be expected to further solidify the central role of RNA in the origin and support of life on earth. As illustrated by this thesis, Bioinformatics methods will continue to play an essential role in these discoveries. N2 - Das Genom eines Organismus enthält alle Informationen für die Synthese aller strukturellen Komponenten und deren jeweiligen Funktionen. Lange Zeit wurde angenommen, dass Proteine, die auf definierten Abschnitten auf dem Genom – den Genen – kodiert werden, die alleinigen Träger der molekularen - und vor allem katalytischen - Funktionen sind. Im Prozess der Umsetzung der genetischen Information von Genen in die Funktion von Proteinen wurden RNA Moleküle als weitere zentrale Molekülklasse identifiziert. Sie fungieren dabei als Botenmoleküle (mRNA) und unterstützen als Trägermoleküle (in Form von tRNA) die Zusammenfügung der einzelnen Aminosäurebausteine zu nativen Proteine. Diese eher passiven Funktionen wurden lange als die einzigen Funktionen von RNA Molekülen angenommen. Jedoch führten neue Entdeckungen zu einer radikalen Neubewertung der Rolle von RNA. So wurden RNA-Moleküle mit katalytischen Eigenschaften entdeckt, sogenannte Ribozyme. Weiterhin wurde festgestellt, dass über proteinkodierende Abschnitte hinaus, weit mehr genomische Sequenzbereiche abgelesen und in RNA Moleküle transkribiert werden als angenommen. Darüber hinaus wurden sehr kleine und neuartige RNA Moleküle identifiziert, die entscheidend bei der Koordinierung der Genexpression beteiligt sind. Diese Entdeckungen rückten RNA als Molekülklasse in den Mittelpunkt moderner molekularbiologischen Forschung und führten zu einer Neubewertung ihrer funktionellen Rolle. Die vorliegende Promotionsarbeit versucht mit Hilfe bioinformatorischer Methoden einen Beitrag zum Verständnis RNA-bezogener Phänomene zu leisten. Zunächst wurde eine genomweite Suche nach Abschnitten im Genom der Modellpflanze Arabidopsis thaliana vorgenommen, deren veränderte chemische Struktur (dem Genotyp) die Ausprägung ausgewählter Merkmale (dem Phänotyp) entscheidend beeinflusst. Dabei wurden sogenannte Ganz-Genom Hybridisierungschips eingesetzt und eine bioinformatische Strategie entwickelt, Veränderungen der chemischen Struktur (Polymorphismen) anhand der veränderten Bindung von genomischer DNA aus verschiedenen Arabidopsis Kultivaren an definierte Proben auf dem Chip zu detektieren. In dieser Suche wurden nicht nur systematisch Genotyp-Phänotyp Assoziationen entdeckt, sondern dabei auch Bereiche identifiziert, die bisher nicht als proteinkodierende Abschnitte annotiert sind, aber dennoch die Ausprägung eines konkreten Merkmals zu bestimmen scheinen. Diese Bereiche wurden desweiteren auf mögliche neue RNA Moleküle untersucht, die in diesen Abschnitten kodiert sein könnten. Hierbei wurde ein neuer Algorithmus eingesetzt, der ebenfalls als Teil der vorliegenden Arbeit entwickelt wurde. Während es zum Standardrepertoire der Molekularbiologen gehört, die chemische Struktur (die Sequenz) eines RNA Moleküls zu bestimmen, ist die Aufklärung sowohl der Struktur als auch der konkreten Funktion des Moleküls weitaus schwieriger. Zu diesem Zweck wurde in dieser Arbeit ein neuer algorithmischer Ansatz entwickelt, der mittels Computermethoden eine Zuordnung von RNA Molekülen zu bestimmten Funktionsklassen gestattet. Hierbei wurde das Konzept der Beschreibung von RNA-Sekundärstrukturen als Graphen genutzt. Es konnte gezeigt werden, dass diese Abstraktion von der konkreten Struktur zu nützlichen Aussagen zur Funktion führt. Des weiteren konnte demonstriert werden, dass graphen-theoretisch abgeleitete Merkmale von RNA-Molekülen einen neuen Zugang zum Verständnis der Struktur-Funktionsbeziehungen ermöglichen. Die entwickelte Methode (Grapple) wurde als web-basierte Anwendung der wissenschaftlichen Welt zur Verfügung gestellt. RNA hat sich als ein zentraler Forschungsgegenstand der Molekularbiologie etabliert und neue Entdeckungen können erwartet werden, die die zentrale Rolle von RNA bei der Entstehung und Aufrechterhaltung des Lebens auf der Erde weiter untermauern. Bioinformatische Methoden werden dabei weiterhin eine essentielle Rolle spielen. KW - de novo ncRNA Vorhersage KW - Vereinigungs-Mapping KW - Support-Vektor-Maschine KW - RNA KW - Genotypisierung KW - de novo ncRNA prediction KW - association mapping KW - support vector machine KW - RNA KW - genotyping Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41284 ER - TY - JOUR T1 - Kentron : Journal zur Lehrerbildung N2 - Inhalt: - Internationale Kooperation in der Qualitätssicherung von Lehre und Studium (Pohlenz) - Mit dem Bachelor in den Beruf...? - Lehrerbildung in Vietnam (Van Cuong) - Interkulturelle Schule aus erster Hand (Nguyen, Bilir) - Schule und Studium im Ausland (Saeltzer) - Mehrsprachigkeit im Klassenzimmer (Mayr, Mezger, Paul) - Muttersprachliche Kompetenzen entwickeln (Haßler) - Sprachbarrieren überwinden (Wartgenstedt) - Grundlagen der Forschungsmethodologie als Studieninhalt (Jakupec) - Als Valeologin auf neuen Wegen nach Potsdam (Hintze) - Deutsch-Polnischer Studienaustausch und erweitertes Studienangebot (Zeißler) - Von Wiesbaden über New York, St. Louis und Washington nach Brandenburg - Chancen im Auslandsschuldienst (Saeltzer) - Interkultularität muss nicht international sein (Nowak) - Lehrerbildung braucht internationale Kontakte (Hübner) - Ausschreibung: Preis für die beste Lehr- und Studieninnovation an der Humanwissenschaftlichen Fakultät T3 - Kentron : Journal zur Lehrerbildung - 23 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44769 SN - 1867-4720 SN - 1867-4747 IS - 23 ER - TY - GEN A1 - Schweizer, Geoffrey A1 - Bluemke, Matthias A1 - Brand, Ralf A1 - Kahlert, Daniela T1 - Exercise might be good for me, but I don't feel good about it : do automatic associations predict exercise behavior? N2 - Models employed in exercise psychology highlight the role of reflective processes for explaining behavior change. However, as discussed in social cognition literature, information-processing models also consider automatic processes (dual-process models). To examine the relevance of automatic processing in exercise psychology, we used a priming task to assess the automatic evaluations of exercise stimuli in physically active sport and exercise majors (n = 32), physically active nonsport majors (n = 31), and inactive students (n = 31). Results showed that physically active students responded faster to positive words after exercise primes, whereas inactive students responded more rapidly to negative words. Priming task reaction times were successfully used to predict reported amounts of exercise in an ordinal regression model. Findings were obtained only with experiential items reflecting negative and positive consequences of exercise. The results illustrate the potential importance of dual-process models in exercise psychology. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - paper 178 KW - exercise KW - health behavior KW - automatic processes KW - evaluative priming KW - affective priming Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42510 ER - TY - THES A1 - Lengefeld, Jan T1 - Zirkulardichroismus-Messungen mit Synchrotronstrahlung am BESSY : Möglichkeiten und Grenzen bei der Untersuchung biologischer Proben T1 - Synchrotron radiation circular dichroism measurements at BESSY : potentials and limitations investigating biological samples N2 - In dieser Arbeit wurden die Möglichkeiten und Grenzen für Zirkulardichroismus-Messungen mit Synchrotronstrahlung untersucht. Dazu wurde ein Messaufbau für Zirkulardichroismus-Messungen an zwei Strahlrohren am Berliner Elektronenspeicherring für Synchrotronstrahlung eingesetzt, die für Messungen im Bereich des ultravioletten Lichts geeignet sind. Eigenschaften der Strahlrohre und des Messaufbau wurden in einigen wichtigen Punkten mit kommerziellen Zirkulardichroismus-Spektrometern verglichen. Der Schwerpunkt lag auf der Ausdehnung des zugänglichen Wellenlängenbereichs unterhalb von 180 nm zur Untersuchung des Zirkulardichroismus von Proteinen in diesem Bereich. In diesem Bereich ist es nicht nur die Lichtquelle sondern vor allem die Absorption des Lichts durch Wasser, die den Messbereich bei der Messung biologischer Proben in wässriger Lösung einschränkt. Es wurden Bedingungen gefunden, unter denen der Messbereich auf etwa 160 nm, in einigen Fällen bis auf 130 nm ausgedehnt werden konnte. Dazu musste die Pfadlänge deutlich reduziert werden und verschieden Probenküvetten wurden getestet. Der Einfluss der dabei auftretenden Spannungsdoppelbrechung in den Probenküvetten auf das Messsignal konnte mit einem alternativen Messaufbau deutlich reduziert werden. Systematische Fehler im Messsignal und auftretende Strahlenschäden begrenzen jedoch die Zuverlässigkeit der gemessenen Spektren. Bei Proteinfilmen schränkt die Absorption von Wasser den Messbereich kaum ein. Es wurden jedoch meist deutliche Unterschiede zwischen den Spektren von Proteinfilmen und den Spektren von Proteinen in wässriger Lösung festgestellt. Solange diese Unterschiede nicht minimiert werden können, stellen Proteinfilme keine praktikable Alternative zu Messungen in wässriger Lösung dar. N2 - The possibilities and limitations for synchrotron radiation circular dichroism measurements were investigated in this thesis. Therefore an experimental setup to measure circular dichroism was used at two beamlines at the “Berliner Elektronenspeicherring für Synchrotronstrahlung”(BESSY), which were suitable in the ultraviolet range of light. Properties of the beamlines and the experimental setup were compared to those of commercial circular dichroism spectrometer in some important points. The focus was on the extension of the accessible wavelength range below 180 nm, with the aim to investigate the circular dichroism of proteins in that range. It is not only the light source that limits measurements with aqueous solutions in that range, but mainly the absorption of the light by water. Conditions were found under which the wavelength range was extended to about 160 nm, in some cases even to 130 nm. To achieve this, a significant reduction of the pathlength was necessary. Several sample cells were tested for their usability. The effect of birefringence within the sample cells on the circular dichroism signal could be reduced strongly with an alternative experimental setup. However systematic errors in the circular dichroism signal and appearing radiation damage of the proteins limits the reliability of the measured spectra. By using protein films, the light absorption by water is not a problem anymore. However, significant differences between the circular dichroism spectra of protein films and proteins in aqueous solution occurred in most of the cases. Unless these differences can be eliminated, measuring protein films is not an alternative to measurements in aqueous solution. KW - Synchrotronstrahlung KW - Zirkulardichroismus KW - BESSY KW - Wasserabsorption KW - Protein KW - synchrotron radiation KW - circular dichroism KW - BESSY KW - water absorbance KW - protein Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44263 ER - TY - THES A1 - Pénisson, Sophie T1 - Conditional limit theorems for multitype branching processes and illustration in epidemiological risk analysis T1 - Bedingte Grenzwertsätze für Mehrtyp-Verzweigungsprozesse und Illustration in epidemiologischen Risikoanalyse N2 - This thesis is concerned with the issue of extinction of populations composed of different types of individuals, and their behavior before extinction and in case of a very late extinction. We approach this question firstly from a strictly probabilistic viewpoint, and secondly from the standpoint of risk analysis related to the extinction of a particular model of population dynamics. In this context we propose several statistical tools. The population size is modeled by a branching process, which is either a continuous-time multitype Bienaymé-Galton-Watson process (BGWc), or its continuous-state counterpart, the multitype Feller diffusion process. We are interested in different kinds of conditioning on non-extinction, and in the associated equilibrium states. These ways of conditioning have been widely studied in the monotype case. However the literature on multitype processes is much less extensive, and there is no systematic work establishing connections between the results for BGWc processes and those for Feller diffusion processes. In the first part of this thesis, we investigate the behavior of the population before its extinction by conditioning the associated branching process X_t on non-extinction (X_t≠0), or more generally on non-extinction in a near future 0≤θ<∞ (X_{t+θ}≠0), and by letting t tend to infinity. We prove the result, new in the multitype framework and for θ>0, that this limit exists and is non-degenerate. This reflects a stationary behavior for the dynamics of the population conditioned on non-extinction, and provides a generalization of the so-called Yaglom limit, corresponding to the case θ=0. In a second step we study the behavior of the population in case of a very late extinction, obtained as the limit when θ tends to infinity of the process conditioned by X_{t+θ}≠0. The resulting conditioned process is a known object in the monotype case (sometimes referred to as Q-process), and has also been studied when X_t is a multitype Feller diffusion process. We investigate the not yet considered case where X_t is a multitype BGWc process and prove the existence of the associated Q-process. In addition, we examine its properties, including the asymptotic ones, and propose several interpretations of the process. Finally, we are interested in interchanging the limits in t and θ, as well as in the not yet studied commutativity of these limits with respect to the high-density-type relationship between BGWc processes and Feller processes. We prove an original and exhaustive list of all possible exchanges of limit (long-time limit in t, increasing delay of extinction θ, diffusion limit). The second part of this work is devoted to the risk analysis related both to the extinction of a population and to its very late extinction. We consider a branching population model (arising notably in the epidemiological context) for which a parameter related to the first moments of the offspring distribution is unknown. We build several estimators adapted to different stages of evolution of the population (phase growth, decay phase, and decay phase when extinction is expected very late), and prove moreover their asymptotic properties (consistency, normality). In particular, we build a least squares estimator adapted to the Q-process, allowing a prediction of the population development in the case of a very late extinction. This would correspond to the best or to the worst-case scenario, depending on whether the population is threatened or invasive. These tools enable us to study the extinction phase of the Bovine Spongiform Encephalopathy epidemic in Great Britain, for which we estimate the infection parameter corresponding to a possible source of horizontal infection persisting after the removal in 1988 of the major route of infection (meat and bone meal). This allows us to predict the evolution of the spread of the disease, including the year of extinction, the number of future cases and the number of infected animals. In particular, we produce a very fine analysis of the evolution of the epidemic in the unlikely event of a very late extinction. N2 - Diese Arbeit befasst sich mit der Frage des Aussterbens von Populationen verschiedener Typen von Individuen. Uns interessiert das Verhalten vor dem Aussterben sowie insbesondere im Falle eines sehr späten Aussterbens. Wir untersuchen diese Fragestellung zum einen von einer rein wahrscheinlichkeitstheoretischen Sicht und zum anderen vom Standpunkt der Risikoanalyse aus, welche im Zusammenhang mit dem Aussterben eines bestimmten Modells der Populationsdynamik steht. In diesem Kontext schlagen wir mehrere statistische Werkzeuge vor. Die Populationsgröße wird entweder durch einen zeitkontinuierlichen mehrtyp-Bienaymé-Galton-Watson Verzweigungsprozess (BGWc) oder durch sein Analogon mit kontinuierlichem Zustandsraum, den Feller Diffusionsprozess, modelliert. Wir interessieren uns für die unterschiedlichen Arten auf Überleben zu bedingen sowie für die hierbei auftretenden Gleichgewichtszustände. Diese Bedingungen wurden bereits weitreichend im Falle eines einzelnen Typen studiert. Im Kontext von mehrtyp-Verzweigungsprozessen hingegen ist die Literatur weniger umfangreich und es gibt keine systematischen Arbeiten, welche die Ergebnisse von BGWc Prozessen mit denen der Feller Diffusionsprozesse verbinden. Wir versuchen hiermit diese Lücke zu schliessen. Im ersten Teil dieser Arbeit untersuchen wir das Verhalten von Populationen vor ihrem Aussterben, indem wir das zeitasymptotysche Verhalten des auf Überleben bedingten zugehörigen Verzweigungsprozesses (X_t|X_t≠0)_t betrachten (oder allgemeiner auf Überleben in naher Zukunft 0≤θ<∞, (X_t|X_{t+θ}≠0)_t). Wir beweisen das Ergebnis, neuartig im mehrtypen Rahmen und für θ>0, dass dieser Grenzwert existiert und nicht-degeneriert ist. Dies spiegelt ein stationäres Verhalten für auf Überleben bedingte Bevölkerungsdynamiken wider und liefert eine Verallgemeinerung des sogenannten Yaglom Grenzwertes (welcher dem Fall θ=0 entspricht). In einem zweiten Schritt studieren wir das Verhalten der Populationen im Falle eines sehr späten Aussterbens, welches wir durch den Grenzübergang auf θ→∞ erhalten. Der resultierende Grenzwertprozess ist ein bekanntes Objekt im eintypen Fall (oftmals als Q-Prozess bezeichnet) und wurde ebenfalls im Fall von mehrtyp-Feller-Diffusionsprozessen studiert. Wir untersuchen den bisher nicht betrachteten Fall, in dem X_t ein mehrtyp-BGWc Prozess ist und beweisen die Existenz des zugehörigen Q-Prozesses. Darüber hinaus untersuchen wir seine Eigenschaften einschließlich der asymptotischen und weisen auf mehrere Auslegungen hin. Schließlich interessieren wir uns für die Austauschbarkeit der Grenzwerte in t und θ, und die Vertauschbarkeit dieser Grenzwerte in Bezug auf die Beziehung zwischen BGWc und Feller Prozessen. Wir beweisen die Durchführbarkeit aller möglichen Grenzwertvertauschungen (Langzeitverhalten, wachsende Aussterbeverzögerung, Diffusionslimit). Der zweite Teil dieser Arbeit ist der Risikoanalyse in Bezug auf das Aussterben und das sehr späte Aussterben von Populationen gewidmet. Wir untersuchen ein Modell einer verzweigten Bevölkerung (welches vor allem im epidemiologischen Rahmen erscheint), für welche ein Parameter der Reproduktionsverteilung unbekannt ist. Wir konstruieren Schätzer, die an die jeweiligen Stufen der Evolution adaptiert sind (Wachstumsphase, Verfallphase sowie die Verfallphase, wenn das Aussterben sehr spät erwartet wird), und beweisen zudem deren asymptotische Eigenschaften (Konsistenz, Normalverteiltheit). Im Besonderen bauen wir einen für Q-Prozesse adaptierten kleinste-Quadrate-Schätzer, der eine Vorhersage der Bevölkerungsentwicklung im Fall eines sehr späten Aussterbens erlaubt. Dies entspricht dem Best- oder Worst-Case-Szenario, abhängig davon, ob die Bevölkerung bedroht oder invasiv ist. Diese Instrumente ermöglichen uns die Betrachtung der Aussterbensphase der Bovinen spongiformen Enzephalopathie Epidemie in Großbritannien. Wir schätzen den Infektionsparameter in Bezug auf mögliche bestehende Quellen der horizontalen Infektion nach der Beseitigung des primären Infektionsweges (Tiermehl) im Jahr 1988. Dies ermöglicht uns eine Vorhersage des Verlaufes der Krankheit inklusive des Jahres des Aussterbens, der Anzahl von zukünftigen Fällen sowie der Anzahl infizierter Tiere. Insbesondere ermöglicht es uns die Erstellung einer sehr detaillierten Analyse des Epidemieverlaufs im unwahrscheinlichen Fall eines sehr späten Aussterbens. KW - Mehrtyp-Verzweigungsprozesse KW - Feller Diffusionsprozesse KW - Schätzung von Verzweigungsprozessen KW - Epidemiologie KW - Risikoanalyse KW - Multitype branching processes KW - Feller diffusion processes KW - Estimation for branching processes KW - Epidemiology KW - Risk analysis Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-45307 ER - TY - BOOK A1 - Figari Layús, Rosario T1 - The role of transitional justice in the midst of ongoing armed conflicts BT - the case of Colombia T3 - Potsdamer Studien zu Staat, Recht und Politik N2 - Between 2002 and 2006 the Colombian government of Álvaro Uribe counted with great international support to hand a demobilization process of right-wing paramilitary groups, along with the implementation of transitional justice policies such as penal prosecutions and the creation of a National Commission for Reparation and Reconciliation (NCRR) to address justice, truth and reparation for victims of paramilitary violence. The demobilization process began when in 2002 the United Self Defence Forces of Colombia (Autodefensas Unidas de Colombia, AUC) agreed to participate in a government-sponsored demobilization process. Paramilitary groups were responsible for the vast majority of human rights violations for a period of over 30 years. The government designed a special legal framework that envisaged great leniency for paramilitaries who committed serious crimes and reparations for victims of paramilitary violence. More than 30,000 paramilitaries have demobilized under this process between January 2003 and August 2006. Law 975, also known as the “Justice and Peace Law”, and Decree 128 have served as the legal framework for the demobilization and prosecutions of paramilitaries. It has offered the prospect of reduced sentences to demobilized paramilitaries who committed crimes against humanity in exchange for full confessions of crimes, restitution for illegally obtained assets, the release of child soldiers, the release of kidnapped victims and has also provided reparations for victims of paramilitary violence. The Colombian demobilization process presents an atypical case of transitional justice. Many observers have even questioned whether Colombia can be considered a case of transitional justice. Transitional justice measures are often taken up after the change of an authoritarian regime or at a post-conflict stage. However, the particularity of the Colombian case is that transitional justice policies were introduced while the conflict still raged. In this sense, the Colombian case expresses one of the key elements to be addressed which is the tension between offering incentives to perpetrators to disarm and demobilize to prevent future crimes and providing an adequate response to the human rights violations perpetrated throughout the course of an internal conflict. In particular, disarmament, demobilization and reintegration processes require a fine balance between the immunity guarantees offered to ex-combatants and the sought of accountability for their crimes. International law provides the legal framework defining the rights to justice, truth and reparations for victims and the corresponding obligations of the State, but the peace negotiations and conflicted political structures do not always allow for the fulfillment of those rights. Thus, the aim of this article is to analyze what kind of transition may be occurring in Colombia by focusing on the role that transitional justice mechanisms may play in political negotiations between the Colombian government and paramilitary groups. In particular, it seeks to address to what extent such processes contribute to or hinder the achievement of the balance between peacebuilding and accountability, and thus facilitate a real transitional process. N2 - Zwischen 2002 und 2006 hat die kolumbianische Regierung von Álvaro Uribe einen Demobilisierungsprozess von paramilitärischen Gruppen und der Implementierung von Transitional Justice-Mechanismen durchgeführt als einem politischen Versuch, Frieden in Kolumbien durchzusetzen. Der Demobilisierungsprozess wurde durch einen sondergesetzlichen Rahmen geregelt: durch das Gesetz 782, das Dekret 128 und das Gesetz 975. Insbesondere das Gesetz 975 aus dem Jahr 2005, auch bekannt als das „Gesetz für Gerechtigkeit und Frieden“ (Ley de Justicia y Paz), bietet Strafmilderung für angeklagte Mitglieder illegaler Gruppen, die Verbrechen gegen die Menschlichkeit und Mord begangen haben. Um diese Strafmilderung in Anspruch nehmen zu können, sind die angeklagten Ex-Kombattanten im Gegenzug aufgefordert, Informationen über ihre ehemalige Gruppe zu erteilen und illegal angeeignete Güter auszuhändigen. Um den Demobilisierungsprozess im Einklang mit Transitional Justice-Prinzipien umzusetzen, wurden eine Vielzahl von Institutionen eingerichtet: acht Sondergerichtskammern, eine Sondereinheit der Staatsanwaltschaft (Unidad Nacional de Fiscalia para la Justicia y la Paz), ein staatlicher Fonds für Entschädigung (Fondo de Reparación) und eine Nationale Kommission für Wiedergutmachung und Versöhnung (Comisión Nacional de Reparación und Reconciliación). In Kolumbien herrscht seit mehr als 40 Jahren ein bewaffneter Konflikt. Es ist der längste bewaffnete Konflikt in der westlichen Welt. An diesem Konflikt sind der Staat, die rechtsgerichteten Paramilitärs und linksgerichtete Guerillagruppen beteiligt. Bis heute hat der Staat in weiten Teilen des Landes de facto kein Gewaltmonopol über einige Gebiete, die stattdessen von der Guerilla oder den Paramilitärs beherrscht werden. Die paramilitarischen Gruppen sind für die überwiegende Zahl von Menschenrechtsverletzungen seit mehr als 30 Jahren verantwortlich. Als Folge wurden tausende Bauernfamilien von ihrem Land vertrieben. Kolumbien steht mit drei Millionen Binnenvertriebenen nach dem Sudan weltweit an zweiter Stelle. Neben Bauern sind auch andere Gruppen Opfer des Konflikts, vor allem Afro-Kolumbianer, Frauen, Gewerkschaftsfunktionäre, Menschenrechtsverteidiger und Journalisten. Vor diesem Hintergrund ist eine wesentliche Voraussetzungen für einen Übergang von Konflikt- zu Frieden, dass der Staat die Garantie der Nicht-Wiederholung der vorausgegangenen Verbrechen und die Stärkung der demokratischen Bürgerrechte sicherstellt. In diesem Zusammenhang sind Transitional Justice-Instrumente, wie u. a. Strafverfolgungen und Amnestie, Wahrheits- und Versöhnungskommissionen, Wiedergutmachungen und Demobilisierungsprozesse zu sehen, die im Rahmen von Übergangsprozessen eingesetzt werden. Sie verfolgen das Ziel, die Vergangenheit eines gewaltsamen Konfliktes oder Regimes aufzuarbeiten, um so den Übergang zu einer nachhaltig friedlichen demokratischen Gesellschaftsordnung zu ermöglichen. Einerseits wird mit Hilfe von Transitional Justice-Instrumenten versucht, Gerechtigkeit und Entschädigung für die Opfer herzustellen. Andererseits sollen die angeklagten Täter mit Hilfe von Amnestie und Wiedereingliederungsprogrammen in die Gesellschaft reintegriert werden. So steht die Anwendung dieser Instrumente einem Dilemma zwischen Frieden und Gerechtigkeit, Verantwortlichkeit und Straflosigkeit, Strafe und Vergeben gegenüber. Diese Arbeit evaluiert die Umsetzung des Demobilisierungsprozesses, die gerichtlichen Prozesse und die Wiedergutmachungspolitik. Wichtig ist es zu analysieren, ob der Demobilisierungsprozess der paramilitärischen Gruppen einen Übergang von Krieg zu Frieden zum Ergebnis hat. Ein Übergang sollte die Erfüllung der oben erwähnten Bedingungen – Ausübung des legitimen Gewaltmonopols durch den Staat, Garantie der Nicht-Wiederholung von Gewaltverbrechen und die Stärkung von Bürgerrechten – bedeuten. T3 - Potsdamer Studien zu Staat, Recht und Politik - 5 KW - Menschenrechte KW - Transitional Justice KW - bewaffnete Konflikte KW - Übergangsprozesse KW - Kolumbien KW - Human Rights KW - Transtional Justice KW - Armed Conflicts KW - Transitions KW - Colombia Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42500 SN - 978-3-86956-063-2 SN - 1867-2663 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Abed, Jamil T1 - An iterative approach to operators on manifolds with singularities T1 - Ein iterativer Zugang zu Operatoren auf Mannigfaltigkeiten mit Singularitäten N2 - We establish elements of a new approach to ellipticity and parametrices within operator algebras on manifolds with higher singularities, only based on some general axiomatic requirements on parameter-dependent operators in suitable scales of spaes. The idea is to model an iterative process with new generations of parameter-dependent operator theories, together with new scales of spaces that satisfy analogous requirements as the original ones, now on a corresponding higher level. The "full" calculus involves two separate theories, one near the tip of the corner and another one at the conical exit to infinity. However, concerning the conical exit to infinity, we establish here a new concrete calculus of edge-degenerate operators which can be iterated to higher singularities. N2 - Wir führen einen neuen Zugang ein zu Elliptizität und Parametrices in Operatorenalgebren auf Mannigfaltigkeiten mit höheren Singularitäten, nur basierend auf allgemeinen axiomatischen Voraussetzungen über parameter-abhängige Operatoren in geeigneten Skalen von Räumen. Die Idee besteht darin, ein iteratives Verfahren zu modellieren mit neuen Generationen von parameter-abhängigen Operatortheorien, zusammen mit neuen Skalen von Räumen, die analoge Voraussetzungen erfüllen wie die ursprünglichen Objekte, jetzt auf dem entsprechenden höheren Niveau. Der „volle“ Kalkül besteht aus zwei separaten Theorien, eine nahe der Spitze der Ecke und eine andere am konischen Ausgang nach Unendlich. Allerdings, bezüglich des konischen Ausgangs nach Unendlich, bauen wir hier einen neuen konkreten Kalkül von kanten-entarteten Operatoren auf, der für höhere Singularitäten iteriert werden kann. KW - Pseudo-Differentialoperatoren KW - kanten- und ecken-entartete Symbole KW - Elliptizität KW - Parametrices KW - höhere Singularitäten KW - Pseudo-differential operators KW - edge- and corner-degenerate symbols KW - ellipticity KW - parametrices KW - higher singularities Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44757 ER - TY - BOOK ED - Uhlenwinkel, Anke T1 - Teaching about the work values of Europeans : critical reflections from the first student exchange of the EVE-project N2 - The European Values Education (EVE) project is a large-scale, cross-national, and longitudinal survey research program on basic human values. The main topic of its first stage was "work" in Europe. Student teachers of several universities in Europe worked together in multicultural exchange groups. Their results are presented in this issue. T3 - Praxis Kultur- und Sozialgeographie | PKS - 49 KW - Europäische Werteerziehung KW - Arbeitsethik KW - Lehrevaluation KW - Studierendenaustausch KW - Unterrichtseinheiten KW - Curriculum Framework KW - European values education KW - work ethics KW - lesson evaluation KW - student exchange KW - teaching units KW - curriculum framework Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48164 SN - 978-3-86956-099-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Fiedler, Christian T1 - Die Strukturbildung der beta-Helix in der Pektatlyase Pel-15 T1 - The structure formation of the beta-helix in the pectate lyase Pel-15 N2 - Pektatlyase (Pel-15) aus dem alkalophilen Bodenbakterium Bacillus spec. KSM-P15 ist mit 197 Aminosäuren eines der kleinsten, bekannten β-3-Solenoidproteine. Sie spaltet Polygalakturonsäurederivate in einem Ca2+-abhängigen β-Eliminierungsprozess. Wie bei allen Proteinen dieser Enzymfamilie ist auch die Polypeptidkette von Pel-15 zu einer einsträngigen, rechtsgängigen, parallelen β-Helix aufgewunden. In diesem Strukturmotiv enthält jede Windung drei β-Stränge, die jeweils durch flexible Schleifenbereiche miteinander verbunden sind. Insgesamt acht Windungen stapeln sich in Pel-15 übereinander und bilden entlang der Helixachse flächige, parallele β-Faltblätter aus. Im Bereich dieser β-Faltblätter existiert ein ausgedehntes Netzwerk von Wasserstoffbrückenbindungen, durch das der hydrophobe Kern, der sich im Inneren der β-Helix befindet, vom umgebenden Lösungsmittel abgeschirmt wird. Besondere Abschlussstrukturen an beiden Enden der β-Helix, wie sie typischerweise bei anderen Ver-tretern dieser Strukturklasse ausgeprägt werden, sind in Pel-15 nicht zu beobachten. Stattdessen sind die terminalen Bereiche der β-Helix über Salzbrücken und hydrophobe Seitenkettenkontakte stabilisiert. In der vorliegenden Dissertation wurde die Pektatlyase Pel-15 hinsichtlich ihres Faltungsgleichgewichtes, ihrer enzymatischen Aktivität und der Kinetik ihrer Strukturbildung charakterisiert. In eine evolutionär konservierte Helixwindung wurden destabilisierende Mutationen eingeführt, und deren Auswirkungen mittels spektroskopischer Methoden analysiert. Die Ergebnisse zeigen, dass Pel-15 in Gegenwart des Denaturierungsmittels Guanidiniumhydrochlorid einen hyperfluoreszenten Gleichgewichtsustand (HF) populiert, der nach Messungen von Faltungs- und Entfaltungskinetiken ein konformationelles Ensemble aus den Zuständen HFslow und HFfast darstellt. Diese HF-Zustände sind durch eine hohe Aktivierungsbarriere voneinander getrennt. In Rückfaltungsexperimenten populieren nur etwa 80 % der faltenden Moleküle den Zwischenzustand HFslow, der mit einer Zeitkonstante von ca. 100 s zu HFfast weiterreagiert. Die Denaturierungsmittelabhängigkeit dieser Reaktion ist sehr gering, was eine trans-/cis-Prolylisomerisierung als geschwindigkeitslimitierenden Schritt nahelegt. Die Existenz eines cis-Peptides in der nativen Struktur macht es erforderlich, den denaturierten Zustand als ein Ensemble kinetisch separierter Konformationen, kurz: DSE, zu betrachten, das durch die Spezies Ufast und Uslow populiert wird. Nach dem in dieser Arbeit aufgestellten „Minimalmodell der Pel-15 Faltung“ stehen die HF-Spezies (HFslow, HFfast) mit den Konformationen des DSE in einem thermodynamischen Kreisprozess. Das Modell positioniert HFfast und die native Konformation N auf die „native Seite“ der Aktivierungsbarriere und trägt damit der Tatsache Rechnung, dass die Gleichgewichtseinstellung zwischen diesen Spezies zu schnell ist, um mit manuellen Techniken erfasst zu werden. Die hochaffine Bindung von Ca2+ (Kd = 10 μM) verschiebt sich das Faltungsgleichgewicht bereits in Gegenwart von 1 mM CaCl2 soweit auf die Seite des nativen Zustandes, das HFfast nicht länger nachweisbar ist. Entgegen anfänglicher Vermutungen kommt einer lokalen, evolutionär konservierten Disulfidbrücke im Zentrum der β-Helix eine wichtige Stabilisierungsfunktion zu. Die Disulfidbrücke befindet sich in einem kurzen Schleifenbereich der β-Helix nahe dem aktiven Zentrum. Obwohl ihr Austausch gegen die Reste Val und Ala die freie Stabilisierungsenthalpie des Proteins um ca. 10 kJ/mol reduziert, lässt die Struktur im Bereich der Mutationsstelle keine gravierende Veränderung erkennen. Auch die katalytisch relevante Ca2+-Bindungsaffinität bleibt unbeeinflusst; dennoch zeigen Enzymaktivitätstests für VA-Mutanten eine Reduktion der enzymatischen Aktivität um fast 50 % an. Die evolutionär konservierte Helixwindung im Allgemeinen und die in ihr enthaltene Disulfidbrücke im Besonderen müssen nach den vorliegenden Ergebnissen also eine zentrale Funktion sowohl für die Struktur des katalytischen Zentrums als auch für die Strukturbildung der β-Helix während der Faltungsreaktion besitzen. Die Ergebnisse dieser Arbeit finden in mehreren Punkten Anklang an Faltungseigenschaften, die für andere β -Helixproteine beschrieben wurden. Vor allem aber prädestinieren sie Pel-15 als ein neues, β-helikales Modellprotein. Aufgrund seiner einfachen Topologie, seiner niedrigen Windungszahl und seiner hohen thermodynamischen Stabilität ist Pel-15 sehr gut geeignet, die Determinanten von Stabilität und Strukturbildung des parallelen β-Helix-Motivs in einer Auflösung zu studieren, die aufgrund der Komplexität bestehender β-helikaler Modellsysteme bislang nicht zur Verfügung stand. N2 - Pectate lyase Pel-15 was isolated from alcaliphlic Bacillus spec. strain KSM-P15. Like all pectate lyases Pel-15 binds and subsequently cleaves polygalacturonic acid, the main pectic compound in plant cell walls and middle lamellae, in a Ca2+ dependent beta-elimination reaction. With 197 amino acids and a molecular mass of only 21 kDa the protein is one of the smallest right-handed parallel beta-helical proteins known today. Polypeptide chains that are classified into this structural family adopt super-helical folds in which each “solenoid stack” consists of three beta-structured regions that are connected by flexible turn segments. Along its longitudinal axis the right-handed parallel beta-helix thus comprises three elongated parallel beta-sheets that are stabilized by an extensive network of hydrogen bonds wrapping around the densely packed hydrophobic core. Together with the shield-like arrangement of hydrogen bonds this hydrophobic core is considered as the main contributor to an exceptionally high stability that is a common feature of all beta-helical proteins. In contrast to most right-handed parallel beta-helices, Pel-15 is devoid of any terminal capping domains and laterally associated secondary structure. Therefore, this protein is considered to be a promising model protein of a pure beta-helix which will help to understand the determinants of both parallel beta-sheet formation and stability. In the dissertation at hand optical spectroscopic methods were used to assess the enzymatic activity, the folding/unfolding equilibrium and the kinetic mechanism of structure formation in neutral buffered solutions. Results indicate that Pel-15 populates a hyper-fluorescent equilibrium intermediate (HF) that is effectively populated in presence of the denaturing agent guanidinium hydrochloride (GdmCl). According to kinetic folding and unfolding experiments HF is not only an essential on-pathway intermediate but has to be considered as a conformational ensemble in which several hyperfluorescent states are in thermodynamic equilibrium with each other. According to their existence in kinetic folding trajectories these different HF-species were termed HFslow and HFfast. The activation energy between both states is remarkably high leading to a time constant of about 100 seconds for the reaction HFslow ⇆ HFfast. Since native Pel-15 contains an energetically disfavoured cis-prolyl peptide between A59 and P60 it is proposed that HFslow and HFfast differ in their prolyl peptide conformations. Two main results emerge from this dissertation. First, an extensive study of the Pel-15 folding- and unfolding behaviour facilitated the proposal of a “minimal folding model”. According to this model the HF-states and the according denatured species Uslow and Ufast are aligned into a thermodynamic circle. This implies that unfolded polypeptide chains reach the HF-ensemble via parallel folding trajectories. Since the native conformation N together with HFfast are on the same side of the activation barrier, it is the reaction HFslow ⇆ HFfast that is the rate limiting step in the folding reaction of Pel-15. Second, the importance of an evolutionarily conserved disulfide bond in the central region of Pel-15 was tested by site directed mutagenesis and subsequent spectroscopic characterization. The exchange of the disulfide against a hydrophobic pair of alanine and valine decreases the folding free energy by about 10 kJ/mol. Although this value is unexpectedly high, structural perturbations around both mutational positions are small as was deduced from X-Ray crystallography. Interestingly, the stability decrease is accompanied by a major loss of enzymatic activity while the Ca2+ binding affinity is not significantly affected. It is therefore concluded that the allosterically relevant disulfide bond stabilizes long-range interactions that stabilize several adjacent solenoid turns near the N-terminus of the protein. Indeed, planar stacking interactions are perturbed and flexibility of N-terminal loops is increased once the disulfide bond is removed. This dissertation establishes Pel-15 as a novel beta-helical model protein and – even more important – smoothes the way for a generally accepted perspective on the formation and stability of parallel beta-sheet proteins. KW - Rechtsgängige parallele beta-Helix KW - Pektatlyase KW - thermodynamische Stabilität KW - Dreizustandsmodell KW - right-handed parallel beta-helix KW - thermodynamic stability KW - protein folding KW - pectate lyase KW - three-state model Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47250 ER - TY - THES A1 - Stöckle, Silke T1 - Thin liquid films with nanoparticles and rod-like ions as models for nanofluidics T1 - Dünne flüssige Filme mit Nanopartikeln und stäbchenförmigen Ionen als Nanofluidische Modelle N2 - With the rise of nanotechnology in the last decade, nanofluidics has been established as a research field and gained increased interest in science and industry. Natural aqueous nanofluidic systems are very complex, there is often a predominance of liquid interfaces or the fluid contains charged or differently shaped colloids. The effects, promoted by these additives, are far from being completely understood and interesting questions arise with regards to the confinement of such complex fluidic systems. A systematic study of nanofluidic processes requires designing suitable experimental model nano – channels with required characteristics. The present work employed thin liquid films (TLFs) as experimental models. They have proven to be useful experimental tools because of their simple geometry, reproducible preparation, and controllable liquid interfaces. The thickness of the channels can be adjusted easily by the concentration of electrolyte in the film forming solution. This way, channel dimensions from 5 – 100 nm are possible, a high flexibility for an experimental system. TLFs have liquid IFs of different charge and properties and they offer the possibility to confine differently shaped ions and molecules to very small spaces, or to subject them to controlled forces. This makes the foam films a unique “device” available to obtain information about fluidic systems in nanometer dimensions. The main goal of this thesis was to study nanofluidic processes using TLFs as models, or tools, and to subtract information about natural systems plus deepen the understanding on physical chemical conditions. The presented work showed that foam films can be used as experimental models to understand the behavior of liquids in nano – sized confinement. In the first part of the thesis, we studied the process of thinning of thin liquid films stabilized with the non – ionic surfactant n – dodecyl – β – maltoside (β – C₁₂G₂) with primary interest in interfacial diffusion processes during the thinning process dependent on surfactant concentration 64. The surfactant concentration in the film forming solutions was varied at constant electrolyte (NaCl) concentration. The velocity of thinning was analyzed combining previously developed theoretical approaches. Qualitative information about the mobility of the surfactant molecules at the film surfaces was obtained. We found that above a certain limiting surfactant concentration the film surfaces were completely immobile and they behaved as non – deformable, which decelerated the thinning process. This follows the predictions for Reynolds flow of liquid between two non – deformable disks. In the second part of the thesis, we designed a TLF nanofluidic system containing rod – like multivalent ions and compared this system to films containing monovalent ions. We presented first results which recognized for the first time the existence of an additional attractive force in the foam films based on the electrostatic interaction between rod – like ions and oppositely charged surfaces. We may speculate that this is an ion bridging component of the disjoining pressure. The results show that for films prepared in presence of spermidine the transformation of the thicker CF to the thinnest NBF is more probable as films prepared with NaCl at similar conditions of electrostatic interaction. This effect is not a result of specific adsorption of any of the ions at the fluid surfaces and it does not lead to any changes in the equilibrium properties of the CF and NBF. Our hypothesis was proven using the trivalent ion Y3+ which does not show ion bridging. The experimental results are compared to theoretical predictions and a quantitative agreement on the system’s energy gain for the change from CF to NBF could be obtained. In the third part of the work, the behavior of nanoparticles in confinement was investigated with respect to their impact on the fluid flow velocity. The particles altered the flow velocity by an unexpected high amount, so that the resulting changes in the dynamic viscosity could not be explained by a realistic change of the fluid viscosity. Only aggregation, flocculation and plug formation can explain the experimental results. The particle systems in the presented thesis had a great impact on the film interfaces due to the stabilizer molecules present in the bulk solution. Finally, the location of the particles with respect to their lateral and vertical arrangement in the film was studied with advanced reflectivity and scattering methods. Neutron Reflectometry studies were performed to investigate the location of nanoparticles in the TLF perpendicular to the IF. For the first time, we study TLFs using grazing incidence small angle X – ray scattering (GISAXS), which is a technique sensitive to the lateral arrangement of particles in confined volumes. This work provides preliminary data on a lateral ordering of particles in the film. N2 - Mit dem Heranwachsen der Nanotechnologie in den vergangenen zehn Jahren hat sich die Nanofluidik als Forschungsbereich etabliert und erfährt wachsende Aufmerksamkeit in der Wissenschaft, sowie auch in der Industrie. Im biomedizinischen Bereich, wo intrazelluläre Prozesse häufig komplexer, nanofluidischer Natur sind, wird sich vermehrt für ein detailliertes Verständnis von nanofluidischen Prozessen interessiert, z.B. für den Einfluss von Kolloiden verschiedenster Form oder elektrischer Ladung auf die Kanäle und auf das Fließverhalten oder die Auswirkungen der Einengung von Flüssigkeiten und Kolloiden in Nanometer Geometrien. In der vorliegenden Arbeit werden dünne flüssige Filme, hinsichtlich ihrer Funktion als nanofluidische Modelle untersucht. Im ersten Teil der Arbeit wurde die Fließgeschwindigkeit des Fluids aus dem dünnen Film, abhängig von der Konzentration der filmstabilisierenden Tensidmoleküle n – Dodecyl β – D – Maltoside ( β – C₁₂G₂) bei einer konstanten Elektrolytkonzentration von 0.2 mM NaCl untersucht. Mit einem theoretischen Modell konnte das Dünnungsverhalten nachgezeichnet werden. Es wurde eine kritische Tensidkonzentration gefunden, unter der die Oberflächen lateral mobil sind und über der sie sich wie fest verhalten. Dadurch konnten wir Aufschluss darüber erlangen, wie die Oberfläche des Films unter verschiedenen Bedingungen geschaffen ist, und das in Bezug zur Verteilungsdichte der Moleküle an den Oberflächen setzen. Im weiteren wurden komplexere, nanofluidische Systeme untersucht, wobei zum einen ~ 1 nm lange, stäbchenförmige, multivalent geladene Spermidin - Moleküle die punktförmigen Elektrolyte ersetzten. Es konnte eine deutliche Veränderung der Stabilität zwischen Filmen mit und ohne Stäbchen festgestellt werden. Die Filme, mit NaCl, blieben länger in dem metastabilen „Common Film“ (CF) Zustand als die Filme, die eine vergleichbare Konzentration von Spermidin Stäbchen beinhalteten. Die Ergebnisse deuteten auf eine zusätzliche Anziehungskraft durch Brückenbildung zwischen zwei geladenen Oberflächen durch gegensätzlich geladene Stäbchenförmige Moleküle hin. Es konnte gezeigt werden, dass dieser Effekt weder ein Ergebnis von spezifischer Ionenadsorption an die Filmoberfläche war, noch ein Unterschied in den Gleichgewichtszuständen von den Dicken der CFs und der Newton Black Films (NBFs) hervorrief, was auf die korrekte Annahme der Ionenstärke in der Lösung schließen ließ. Auch in Versuchen mit ebenfalls trivalenten Ionen YCl3 wurde festgestellt, dass kein vergleichbarer Überbrückungseffekt auftritt. Die Ergebnisse wurden mit theoretischen Simulationen verglichen und es wurde eine quantitative Übereinstimmung gefunden bezüglich der Größe des Systeminternen Energiegewinns durch den Überbrückungseffekt. Desweiteren wurde das Fließverhalten von Fluiden mit Kolloiden eingeengt in Nanometer Geometrien untersucht. Für zwei verschiedene Arten von Nanopartikeln (Fe3O4 stabilisiert mit Oleinsäure und polymerstabilisierte Goldpartikel) wurde eine Verlangsamung der Fließgeschwindigkeit festgestellt. Mit einem theoretischen Modell konnte das Fließverhalten nur für enorm erhöhte Viskositätswerte des Fluids erklärt werden. Die Viskositätserhöhung wurde mit Partikelaggregaten, die den Ausfluss behindern, erklärt und diskutiert, unter der Annahme eines nicht - Newtonischen Fließverhaltens der Dispersionen. Gleichermaßen wurde die strukturelle Anordnung der Partikel in den Filmen hinsichtlich ihrer vertikalen und lateralen Verteilung untersucht. In dieser Arbeit werden vorläufige Ergebnisse präsentiert, die noch weiteren Studien bedürfen. Mit Neutronenreflexion sollte die Anordnung der Partikel orthogonal zur Oberfläche im Film analysiert werden. Eine qualitative Analyse lässt schließen, dass bei einer höheren Konzentration von Partikeln in Lösung, sich auch eine erhöhte Konzentration von Partikeln im dünnen Film befindet. Leider konnten die Daten nicht hinsichtlich der Lage der Partikel analysiert werden. Zum ersten Mal wurden dünne flüssige Filme mit Kleinwinkelröntgenstreuung unter streifendem Einfall (GISAXS) analysiert. Mit Hilfe dieser Methode sollte eine laterale Anordnung der Partikel im Film untersucht werden. Es konnten erfolgreiche Messungen durchgeführt werden und mit Hilfe der rechnergestützten Analyse konnte eine Aussage gemacht werden, dass ~ 6 nm große Teilchen in ~ 43 nm Abstand sich im Film befinden. Die Aussage bezüglich der kleinen Teilchen könnte sich auf einzelne, kleinere Partikel beziehen, allerdings könnten auch die 43 nm eine relevante Strukturgröße darstellen, da es in der Dispersion gehäuft Aggregate mit dem Durchmesser in dem Größenbereich vorliegen. Zusammenfassend können sich mit dieser Arbeit die dünnen flüssigen Filme als eine wichtige Kernmethode der Untersuchung von nanofluidischen Prozessen, wie sie häufig in der Natur vorkommen, behaupten. KW - Nanofluidik KW - Schaumfilme KW - Spermidin KW - Nanopartikel KW - Oberflächenkräfte KW - nanofluidics KW - foam films KW - spermidine KW - nanoparticles KW - interfacial forces Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-46370 ER - TY - THES A1 - Esther, Alexandra T1 - Investigating mechanisms maintaining plant species diversity in fire prone Mediterranean-type vegetation using spatially-explicit simulation models T1 - Untersuchung von Mechanismen zum Erhalt von Pflanzenartendiversität in feuergeprägter mediterraner Vegetation durch räumlich explizite Simulationsmodelle N2 - Fire prone Mediterranean-type vegetation systems like those in the Mediterranean Basin and South-Western Australia are global hot spots for plant species diversity. To ensure management programs act to maintain these highly diverse plant communities, it is necessary to get a profound understanding of the crucial mechanisms of coexistence. In the current literature several mechanisms are discussed. The objective of my thesis is to systematically explore the importance of potential mechanisms for maintaining multi-species, fire prone vegetation by modelling. The model I developed is spatially-explicit, stochastic, rule- and individual-based. It is parameterised on data of population dynamics collected over 18 years in the Mediterranean-type shrublands of Eneabba, Western Australia. From 156 woody species of the area seven plant traits have been identified to be relevant for this study: regeneration mode, annual maximum seed production, seed size, maximum crown diameter, drought tolerance, dispersal mode and seed bank type. Trait sets are used for the definition of plant functional types (PFTs). The PFT dynamics are simulated annual by iterating life history processes. In the first part of my thesis I investigate the importance of trade-offs for the maintenance of high diversity in multi-species systems with 288 virtual PFTs. Simulation results show that the trade-off concept can be helpful to identify non-viable combinations of plant traits. However, the Shannon Diversity Index of modelled communities can be high despite of the presence of ‘supertypes’. I conclude, that trade-offs between two traits are less important to explain multi-species coexistence and high diversity than it is predicted by more conceptual models. Several studies show, that seed immigration from the regional seed pool is essential for maintaining local species diversity. However, systematical studies on the seed rain composition to multi-species communities are missing. The results of the simulation experiments, as presented in part two of this thesis, show clearly, that without seed immigration the local species community found in Eneabba drifts towards a state with few coexisting PFTs. With increasing immigration rates the number of simulated coexisting PFTs and Shannon diversity quickly approaches values as also observed in the field. Including the regional seed input in the model is suited to explain more aggregated measures of the local plant community structure such as species richness and diversity. Hence, the seed rain composition should be implemented in future studies. In the third part of my thesis I test the sensitivity of Eneabba PFTs to four different climate change scenarios, considering their impact on both local and regional processes. The results show that climate change clearly has the potential to alter the number of dispersed seeds for most of the Eneabba PFTs and therefore the source of the ‘immigrants’ at the community level. A classification tree analysis shows that, in general, the response to climate change was PFT-specific. In the Eneabba sand plains sensitivity of a PFT to climate change depends on its specific trait combination and on the scenario of environmental change i.e. development of the amount of rainfall and the fire frequency. This result emphasizes that PFT-specific responses and regional process seed immigration should not be ignored in studies dealing with the impact of climate change on future species distribution. The results of the three chapters are finally analysed in a general discussion. The model is discussed and improvements and suggestions are made for future research. My work leads to the following conclusions: i) It is necessary to support modelling with empirical work to explain coexistence in species-rich plant communities. ii) The chosen modelling approach allows considering the complexity of coexistence and improves the understanding of coexistence mechanisms. iii) Field research based assumptions in terms of environmental conditions and plant life histories can relativise the importance of more hypothetic coexistence theories in species-rich systems. In consequence, trade-offs can play a lower role than predicted by conceptual models. iv) Seed immigration is a key process for local coexistence. Its alteration because of climate change should be considered for prognosis of coexistence. Field studies should be carried out to get data on seed rain composition. N2 - Feuer geprägte, mediterrane Vegetationstypen, wie sie im Mittelmeerraum und Süd-West Australien zu finden sind, gelten als globale „hotspots“ für Pflanzendiversität. Um sicher zu stellen, dass Managementprogramme zum Erhalt dieser hoch diversen Pflanzengesellschaften zielgerichtet beitragen, ist ein profundes Verständnis der wesentlichen Koexistenzmechanismen notwendig. In der aktuellen Literatur werden verschiedene Mechanismen diskutiert. Das Ziel meiner Doktorarbeit ist es, die Bedeutung der Mechanismen für den Erhalt der artenreichen, feuergeprägten Vegetation anhand eines Modells systematisch zu untersuchen. Das von mir dafür entwickelte Modell ist räumlich-explizit, stochastisch und regel- und individuenbasiert. Es ist unter Zuhilfenahme von Daten zu Populationsdynamiken parametrisiert, die über 18 Jahre im Mediterranen Buschland von Eneabba Westaustraliens gesammelt wurden. Anhand von 156 Arten sind sieben für meine Studie relevante Pflanzeneigenschaften identifiziert wurden: Regenerationsart, jährlich maximale Samenproduktion, Samengröße, maximaler Durchmesser, Trockentoleranz, Ausbreitungsart und Samenbanktyp. Kombinationen der Eigenschaften bilden funktionelle Pflanzentypen (PFTs), deren jährliche Dynamik über Lebenszyklusprozesse im Modell simuliert wird. Der erste Teil meiner Arbeit präsentiert die Studie zur Bedeutung von „trade-offs“ für den Erhalt der hohen Diversität in artenreichen Systemen. Die Simulationsergebnisse mit 288 virtuellen PFTs zeigen, dass das „trade-offs“-Konzept für die Identifizierung nicht-lebensfähiger Kombinationen von Pflanzeneigenschaften hilfreich sein kann. Allerdings kann der Shannon-Diversitäts-Index der modellierten Pflanzengesellschaft trotz der Anwesenheit von „Supertypen“ hoch sein. Ich schlussfolgere, dass „trade-off“ zwischen zwei Eigenschaften weniger wichtig für die Erklärung der Koexistenz von vielen Arten und hoher Diversität sind, als es durch konzeptionelle Modelle vorhergesagt wird. Viele Studien zeigen, dass Sameneintrag aus dem regionalen Samenpool essenziell für den Erhalt lokaler Artendiversität ist. Es gibt allerdings noch keine systematischen Studien zur Zusammensetzung des Samenregens artenreichen Systemen. Die Ergebnisse der Simulationsexperimente im zweiten Teil meiner Arbeit machen deutlich, dass ohne Sameneintrag die lokale Pflanzengesellschaft Eneabbas sich in eine Richtung entwickelt, in der nur wenige PFTs koexistieren. Mit steigender Samenimmigrationsrate erreicht die Anzahl an koexistierenden PFTs und die Shannon-Diversität schnell die Werte, die auch im Feld gefunden werden. Der regionale Sameneintrag kann also als Erklärung zur Struktur lokaler Pflanzengesellschaften dienen. Seine Zusammensetzung sollte jedoch in zukünftigen Studien berücksichtigt werden. Im dritten Teil meiner Doktorarbeit präsentiere ich Analysen zur Sensibilität der PFTs von Eneabba vorhergesagte Klimaszenarien und der Auswirkungen auf die Samenimmigration. Die Ergebnisse zeigen deutlich, dass Klimaänderungen das Potential haben, die Anzahl an ausgebreiteten Samen der meisten Eneabba PFTs zu verändern. Die Entscheidungsbaum-Analyse veranschaulicht, dass die Reaktion auf Klimaänderung PFT-spezifisch ist. In den Eneabba hängt die Sensitivität der PFTs gegenüber klimatischen Veränderungen von den PFT-spezifischen Eigenschaftskombinationen und vom Klimaszenarium ab, d.h. von der Entwicklung der Regenfallmenge und der Feuerfrequenz. Dieses Ergebnis betont, dass PFT-spezifische Reaktionen und die klimabedingten Änderungen in der Samenimmigration in Studien zum Einfluss von Klimaänderungen auf die zukünftige Artenverteilung berücksichtigt werden sollten. Die Ergebnisse aus den drei Kapiteln werden in der allgemeinen Diskussion zusammengeführt und analysiert. Das Modell wird diskutiert und Verbesserungen und Vorschläge für weitere Forschung aufgezeigt. Meine Arbeit führt zu folgenden Schlussfolgerungen: i) Es ist notwendig, empirische Arbeit und Modellierung zu kombinieren, um Koexistenz in artenreichen Systemen zu erklären. ii) Durch den gewählten Modellansatz kann die Komplexität von Koexistenz erfasst und das Verständnis vertieft werden. iii) Auf Felddaten basierende Annahmen bezüglich Umweltbedingungen und Lebenzyklus können zur Relativierung der Bedeutsamkeit von Mechanismen führen. So können Trade-offs eine geringere Rolle spielen, als konzeptionelle Modelle nahe legen. iv) Samenimmigration ist ein Schlüsselprozess für lokale Koexistenz. Deren Änderung aufgrund von Klimawandel sollte für Prognosen zu Artenvorkommen berücksichtigt werden. Feldstudien sollten durchgeführt werden, um die Datenlücken zur Samenregenzusammensetzung zu füllen. KW - Feuer KW - Artenreichtum KW - individuelle Modellierung KW - fire KW - plant functional types KW - species richness KW - individual based modeling Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44632 ER - TY - THES A1 - Mörbt, Nora T1 - Differential proteome analysis of human lung epithelial cells following exposure to aromatic volatile organic compounds T1 - Differentielle Proteomeanalyse humaner Lungenepithelzellen nach Exposition mit aromatischen flüchtigen Substanzen N2 - The widespread usage of products containing volatile organic compounds (VOC) has lead to a general human exposure to these chemicals in work places or homes being suspected to contribute to the growing incidence of environmental diseases. Since the causal molecular mechanisms for the development of these disorders are not completely understood, the overall objective of this thesis was to investigate VOC-mediated molecular effects on human lung cells in vitro at VOC concentrations comparable to exposure scenarios below current occupational limits. Although differential expression of single proteins in response to VOCs has been reported, effects on complex protein networks (proteome) have not been investigated. However, this information is indispensable when trying to ascertain a mechanism for VOC action on the cellular level and establishing preventive strategies. For this study, the alveolar epithelial cell line A549 has been used. This cell line, cultured in a two-phase (air/liquid) model allows the most direct exposure and had been successfully applied for the analysis of inflammatory effects in response to VOCs. Mass spectrometric identification of 266 protein spots provided the first proteomic map of A549 cell line to this extent that may foster future work with this frequently used cellular model. The distribution of three typical air contaminants, monochlorobenzene (CB), styrene and 1,2 dichlorobenzene (1,2-DCB), between gas and liquid phase of the exposure model has been analyzed by gas chromatography. The obtained VOC partitioning was in agreement with available literature data. Subsequently the adapted in vitro system has been successfully employed to characterize the effects of the aromatic compound styrene on the proteome of A549 cells (Chapter 4). Initially, the cell toxicity has been assessed in order to ensure that most of the concentrations used in the following proteomic approach were not cytotoxic. Significant changes in abundance and phosphorylation in the total soluble protein fraction of A549 cells have been detected following styrene exposure. All proteins have been identified using mass spectrometry and the main cellular functions have been assigned. Validation experiments on protein and transcript level confirmed the results of the 2-DE experiments. From the results, two main cellular pathways have been identified that were induced by styrene: the cellular oxidative stress response combined with moderate pro-apoptotic signaling. Measurement of cellular reactive oxygen species (ROS) as well as the styrene-mediated induction of oxidative stress marker proteins confirmed the hypothesis of oxidative stress as the main molecular response mechanism. Finally, adducts of cellular proteins with the reactive styrene metabolite styrene 7,8 oxide (SO) have been identified. Especially the SO-adducts observed at both the reactive centers of thioredoxin reductase 1, which is a key element in the control of the cellular redox state, may be involved in styrene-induced ROS formation and apoptosis. A similar proteomic approach has been carried out with the halobenzenes CB and 1,2-DCB (Chapter 5). In accordance with previous findings, cell toxicity assessment showed enhanced toxicity compared to the one caused by styrene. Significant changes in abundance and phosphorylation of total soluble proteins of A549 cells have been detected following exposure to subtoxic concentrations of CB and 1,2-DCB. All proteins have been identified using mass spectrometry and the main cellular functions have been assigned. As for the styrene experiment, the results indicated two main pathways to be affected in the presence of chlorinated benzenes, cell death signaling and oxidative stress response. The strong induction of pro-apoptotic signaling has been confirmed for both treatments by detection of the cleavage of caspase 3. Likewise, the induction of redox-sensitive protein species could be correlated to an increased cellular level of ROS observed following CB treatment. Finally, common mechanisms in the cellular response to aromatic VOCs have been investigated (Chapter 6). A similar number (4.6-6.9%) of all quantified protein spots showed differential expression (p<0.05) following cell exposure to styrene, CB or 1,2-DCB. However, not more than three protein spots showed significant regulation in the same direction for all three volatile compounds: voltage-dependent anion-selective channel protein 2, peroxiredoxin 1 and elongation factor 2. However, all of these proteins are important molecular targets in stress- and cell death-related signaling pathways. N2 - Die vermehrte Verwendung von Produkten, welche flüchtige organische Substanzen (VOC - volatile organic compound) enthalten, hat eine generelle Exposition der Bevölkerung mit diesen Substanzen an Arbeitsplätzen aber auch in Wohnräumen bedingt. VOCs stehen im Verdacht, zur zunehmenden Inzidenz umweltbedingter Erkrankungen beizutragen. Da die molekularen Ursachen dieser Erkrankungen bisher noch unverstanden sind, war es ein übergeordnetes Ziel dieser Arbeit, VOC-vermittelte molekulare Effekte in menschlichen Lungenepithelzellen anhand eines in vitro Modells zu untersuchen. Dabei sollten vor allem Konzentrationen unterhalb der gültigen Arbeitsplatzgrenzwerte untersucht werden. Obwohl Effekte auf einzelne Proteine bekannt sind, wurden bisher keine Effekte der VOC-Exposition auf das komplexe Netzwerk der zellulären Proteine (Proteom) untersucht. Dieses Wissen ist essentiell, um induzierte zelluläre Mechanismen zu verstehen und Strategien zu deren Vermeidung zu entwickeln. Für die hier durchgeführten Untersuchungen wurde die Lungenepithelzelllinie A549 in einem Zweiphasenexpositionsmodell eingesetzt. Dieses ermöglichte eine möglichst direkte zelluläre Exposition und wurde bereits erfolgreich verwendet, um durch VOC hervorgerufene Entzündungseffekte zu identifizieren. Die massen-spektrometrische Identifikation von 266 Proteinflecken lieferte die erste umfassende Proteomkarte der A549 Zelllinie, welche nachfolgende Untersuchungen mit diesem häufig verwendeten Zelltyp erleichtern wird. Zusätzlich wurde die Verteilung der drei gängigen Luftkontaminanten Chlorbenzol (CB), Styrol and 1,2-Dichlorobenzol (1,2-DCB) zwischen den beiden Phasen (gas/flüssig) des Expositionsmodells gaschromatographisch bestimmt. Die Verteilung entsprach den verfügbaren Literaturdaten. Anschließend wurde das modifizierte Expositionsmodell erfolgreich eingesetzt, um styrol-vermittelte Effekte auf das Proteom der A549 Zellen zu charakterisieren (Kapitel 4). Zu Beginn erfolgte die Erfassung der Zelltoxizität der Substanz, um sicher zu stellen, daß der überwiegende Teil der späteren Expositionsexperimente mit subtoxischen Konzentrationen durchgeführt wird. Es konnte eine signifikant veränderte Expression und Phosphorylierung der löslichen Proteinfraktion der A549 Zellen als Reaktion auf die Styrolexposition festgestellt werden. Die regulierten Proteine wurden massenspektrometrisch identifiziert und ihre wichtigsten Funktionen wurden zugewiesen. Validierungsexperimente auf Protein- und auf Transkriptebene bestätigten die 2-DE Ergebnisse. Insgesamt konnte die zelluläre Reaktion durch die styrol-vermittelte Induktion zweier zentraler Mechanismen erklärt werden: oxidativer zellulärer Stress und beginnende Apoptose. Folgeexperimente wie die Messung der Menge der zellulären reaktiven Sauerstoffspezies (ROS) und die Induktion von redox-sensitiven Markerproteinen konnte die Hypothese eines styrol-induzierten oxidativen Milieus bestätigen. Schließlich wurden Proteinaddukte des reaktiven Styrolmetaboliten Styrol 7,8 epoxide (SO) identifiziert. Besonders die SO-Addukte, welche and den beiden aktiven Zentren der Thioredoxin Reduktase 1 gefunden wurden könnten eine wichtige Rolle bei der styrol-induzierten ROS-Bildung sowie der beginnenden Apoptose spielen. In Analogie zum Styrolexperiment wurden die Effekte der halogenierten Benzole CB und 1,2-DCB untersucht (Kapitel 5). Es konnten ebenfalls sämtliche Proteine identifiziert und die wichtigsten zellulären Funktionen zugewiesen werden. Diese Substanzen modulierten ebenfalls apoptotische Signalwege und die zelluläre Antwort auf oxidativen Streß. Der beobachtete starke pro-apoptotische Effekt konnte für beide Substanzen mit der Spaltung der Caspase 3 nachgewiesen werden. Weiterhin konnte für CB die Induktion redox-sensitiver Proteinspezies mit einem beobachteten höherem Gehalt an ROS erklärt werden. Schließlich wurden ähnliche Mechanismen der zellulären Antwort auf die Exposition mit den drei untersuchten aromatischen VOCs diskutiert (Kapitel 6). Alle getesteten VOCs verursachten eine vergleichbare differentielle Expression (p<0,05) von 4,6-6,9% aller quantifizierten Proteinspezies. Nur drei Proteinspots wurden dabei gemeinsam für alle VOCs reguliert: voltage-dependent anion-selective channel protein 2, peroxiredoxin 1 and elongation factor 2. Allerdings gehören diese drei Proteine zu wichtigen zellulären Zielstrukturen der Signalwege für Stressantwort und Zelltod. KW - VOC KW - Proteom KW - Styrol KW - chlorbenzol KW - dichlorbenzol KW - VOC KW - proteome KW - styrene KW - monochlorobenzene KW - dichlorobenzene Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49257 ER - TY - BOOK A1 - Geller, Felix A1 - Hirschfeld, Robert A1 - Bracha, Gilad T1 - Pattern Matching for an object-oriented and dynamically typed programming language N2 - Pattern matching is a well-established concept in the functional programming community. It provides the means for concisely identifying and destructuring values of interest. This enables a clean separation of data structures and respective functionality, as well as dispatching functionality based on more than a single value. Unfortunately, expressive pattern matching facilities are seldomly incorporated in present object-oriented programming languages. We present a seamless integration of pattern matching facilities in an object-oriented and dynamically typed programming language: Newspeak. We describe language extensions to improve the practicability and integrate our additions with the existing programming environment for Newspeak. This report is based on the first author’s master’s thesis. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 36 KW - Pattern Matching KW - Musterabgleich KW - Muster KW - Objekt-Orientiertes Programmieren KW - Dynamische Typ Systeme KW - Pattern Matching KW - Patterns KW - Object-Oriented Programming KW - Dynamic Type System Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43035 SN - 978-3-86956-065-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Weiß, Norman T1 - Michael Ronellenfitsch, Louis L’Amour und das Völkerrecht (Public International Law) / [rezensiert von] Norman Weiß JF - MenschenRechtsMagazin : MRM ; Informationen, Meinungen, Analysen N2 - Rezensiertes Werk: Ronellenfitsch, Michael: Louis L’Amour und das Völkerrecht (Public International Law). - Berlin : Duncker & Humblot, 2008. - 389 S. (Tübinger Schriften zum internationalen und europäischen Recht ; 89) ISBN: 978-3-428-13005-4 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44884 SN - 1434-2820 VL - 15 IS - 1 SP - 76 EP - 78 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - RPRT ED - Petersen, Hans-Georg T1 - Tax systems and tax harmonisation in the East African Community (EAC) T2 - Finanzwissenschaftliche Diskussionsbeiträge N2 - In the first part of the report of the GTZ expert group an overview on the basics of integration and tax harmonisation within a common market is given. Chapter II. concentrates on the problems of national and international tax law regarding double taxation before the harmonisation process within the EU is described in detail. This process is not a best practice example but at least the experiences made in the course of the last five decades are interesting enough and might contribute important information for regions, which more or less recently have started a similar endeavour. The harmonisation needs are discussed for value added taxation (VAT), excise taxation, and income taxation. The problems of tax administrations, procedures laws, taxpayers’ rights and obligations as well as tax compliance are also taken into consideration. The second part of the study reviews the national tax systems within the EAC member countries. Before the single taxes are described in more detail, the macroeconomic situation is illuminated by some basic figures and the current stand of the inner-community integration analysed. Then the single tax bases and tax rates are confronted to shed some light on the necessities for the development of a common market within the near future. Again the value added tax laws, excise taxes and income taxes are discussed in detail, while regarding the latter the focus is on company taxation. For a better systematic analysis the national tax laws are confronted within an overview. The chapter is closed with a summary of the tax rates applied and a rough estimation of the tax burdens within the Partner States. The third part of this report contains the policy recommendations of the expert group following the same structures as the chapters before and presenting the results for the VAT, the excises and the corporate income tax (CIT). Additionally the requirements for tax procedures and administration as well as problems of transparency and information exchange are discussed in detail before the strategic recommendations are derived in close relation to the experiences made within the EU harmonisation process. The recommendations are based on the following normative arguments: (1) Tax harmonisation is a basic requirement for economic integration. (2) Equality of taxation is an imperative of tax justice and demands the avoidance of double taxation as well as the combat of tax evasion and corruption. (3) The avoidance of harmful tax competition between the Partner States. (4) The strengthening of taxpayers’ rights in tax procedures. Hence, all kinds of income, goods and services should be taxed once and only once. T3 - Finanzwissenschaftliche Diskussionsbeiträge - 60 KW - centralization KW - decentralization KW - ethnic differences KW - fiscal federalism KW - fiscal planning KW - good governance KW - harmonization KW - integration KW - nation building KW - revenue sharing KW - sustainable fiscal policy KW - tax reform KW - compliance KW - corruption KW - direct taxes KW - double taxation KW - East African Community KW - indirect taxes KW - information exchange KW - international tax law KW - revenue authorities KW - tax administration KW - taxation KW - tax harmonization KW - tax system KW - transparency Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44693 SN - 1864-1431 SN - 0948-7549 IS - 60 ER - TY - BOOK A1 - Gelaschwili, Simon T1 - Entstehung deutscher Kolonien in Georgien am Anfang des 19. Jahrhunderts und deren wirtschaftliche Tätigkeiten N2 - Der vorliegende Beitrag gibt einen Überblick über die Entstehung der ersten deutschen Kolonien in Georgien sowie die wirtschaftlichen Aspekte ihrer Tätigkeiten. Im II. Kapitel wird kurz die Vorgeschichte der Beziehungen zwischen Deutschland und Georgien beschrieben. Es wird gezeigt, dass diese Beziehungen schon im dritten Jahrhundert begannen und nach der Eroberung Georgiens durch die Mongolen im 13. Jahrhundert unterbrochen wurden. Die Wiederherstellung der Beziehungen zwischen den Ländern fand im 17. Jahrhundert statt, wobei eine Intensivierung im 18. Jahrhundert beobachtet werden kann. Im III. Kapitel geht es um die Entstehung der deutschen Kolonien in Georgien; insbesondere entstanden viele deutsche Siedlungen in Ost-Georgien, in der Nähe der Hauptstadt Tbilissi (mit deutschen Bezeichnungen, z.B. Rosenthal, Marienfeld, Alexandersdorf, Petersdorf, Elenendorf usw.) und in Tbilissi. Das IV. Kapitel beschäftigt sich mit der Analyse der wirtschaftlichen Tätigkeiten der deutschen Kolonien, insbesondere mit der Gründung von zahlreichen neuen kleinen und mittleren Unternehmen in der Nahrungsproduktion, Landwirtschaft und im Dienstleistungsbereich. Die kleinen und mittleren deutschen Unternehmen verwendeten modernes Know-how und Technologien aus Deutschland. Dies hat wesentlich zur wirtschaftlichen Entwicklung Georgiens beigetragen. T3 - Finanzwissenschaftliche Diskussionsbeiträge / Special series G, Arbeitspapiere des Deutsch-Georgischen Arbeitskreises für Finanz- und Sozialpolitik - G-11 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-44719 ER - TY - THES A1 - Yin, Fan T1 - Mathematic approaches for the calibration of the CHAMP satellite magnetic field measurements T1 - Mathematische Ansätze für die Kalibrierung des Satelliten CHAMP Magnetfeldmessungen N2 - CHAMP (CHAllenging Minisatellite Payload) is a German small satellite mission to study the earth's gravity field, magnetic field and upper atmosphere. Thanks to the good condition of the satellite so far, the planned 5 years mission is extended to year 2009. The satellite provides continuously a large quantity of measurement data for the purpose of Earth study. The measurements of the magnetic field are undertaken by two Fluxgate Magnetometers (vector magnetometer) and one Overhauser Magnetometer (scalar magnetometer) flown on CHAMP. In order to ensure the quality of the data during the whole mission, the calibration of the magnetometers has to be performed routinely in orbit. The scalar magnetometer serves as the magnetic reference and its readings are compared with the readings of the vector magnetometer. The readings of the vector magnetometer are corrected by the parameters that are derived from this comparison, which is called the scalar calibration. In the routine processing, these calibration parameters are updated every 15 days by means of scalar calibration. There are also magnetic effects coming from the satellite which disturb the measurements. Most of them have been characterized during tests before launch. Among them are the remanent magnetization of the spacecraft and fields generated by currents. They are all considered to be constant over the mission life. The 8 years of operation experience allow us to investigate the long-term behaviors of the magnetometers and the satellite systems. According to the investigation, it was found that for example the scale factors of the FGM show obvious long-term changes which can be described by logarithmic functions. The other parameters (offsets and angles between the three components) can be considered constant. If these continuous parameters are applied for the FGM data processing, the disagreement between the OVM and the FGM readings is limited to \pm1nT over the whole mission. This demonstrates, the magnetometers on CHAMP exhibit a very good stability. However, the daily correction of the parameter Z component offset of the FGM improves the agreement between the magnetometers markedly. The Z component offset plays a very important role for the data quality. It exhibits a linear relationship with the standard deviation of the disagreement between the OVM and the FGM readings. After Z offset correction, the errors are limited to \pm0.5nT (equivalent to a standard deviation of 0.2nT). We improved the corrections of the spacecraft field which are not taken into account in the routine processing. Such disturbance field, e.g. from the power supply system of the satellite, show some systematic errors in the FGM data and are misinterpreted in 9-parameter calibration, which brings false local time related variation of the calibration parameters. These corrections are made by applying a mathematical model to the measured currents. This non-linear model is derived from an inversion technique. If the disturbance field of the satellite body are fully corrected, the standard deviation of scalar error \triangle B remains about 0.1nT. Additionally, in order to keep the OVM readings a reliable standard, the imperfect coefficients of the torquer current correction for the OVM are redetermined by solving a minimization problem. The temporal variation of the spacecraft remanent field is investigated. It was found that the average magnetic moment of the magneto-torquers reflects well the moment of the satellite. This allows for a continuous correction of the spacecraft field. The reasons for the possible unknown systemic error are discussed in this thesis. Particularly, both temperature uncertainties and time errors have influence on the FGM data. Based on the results of this thesis the data processing of future magnetic missions can be designed in an improved way. In particular, the upcoming ESA mission Swarm can take advantage of our findings and provide all the auxiliary measurements needed for a proper recovery of the ambient magnetic field. N2 - CHAMP (CHAllenging Minisatellite Payload) ist eine deutsche Kleinsatellitenmission für die Forschung und Anwendung in Bereich der Geowissenschaften und Atmosphärenphysik. Das Projekt wird vom GFZ geleitet. Mit seinen hochgenauen, multifunktionalen, sich ergänzenden Nutzlastelementen (Magnetometer, Akzelerometer, Sternsensor, GPS-Empfänger, Laser-Retroreflektor, Ionendriftmeter) liefert CHAMP erstmalig gleichzeitig hochgenaue Schwere- und Magnetfeldmessungen (seit Mitte 2000). Dank des bisherigen guten Zustandes des Satelliten ist die auf 5 Jahre ausgelegte Mission bis 2009 verlängert geworden. An Board befinden sich ein skalares Overhauser-Magnetometer(OVM) für Kalibrierungszwecke sowie zwei Fluxgate-Magnetometer(FGM) zur Messung des magnetischen Feldvektors. Die Messungen vom FGM werden immer verglichen mit denen vom OVM und korregiert im Fall von Widersprüche, das ist die sog. Skalar-Kalibrierung. Um eine zuverlässige Datenqualität während der 8 jährigen Mission zu garantieren, ist die Nachkalibrierung implementiert. Im Rahmen der standard mäßigen Datenverarbeitung werden die Instrumentenparameter des FGM alle 15 Tage neu bestimmt. Das Ziel der vorliegenden Arbeit ist es, eine Verbesserung der Vektormagnetfelddaten zu erzielen durch eine neue Methode der Kalibrierung, die die Eigenschaften der Sensoren und Störung vom Raumfahrzeug mit berücksichtigt. Die Erfahrung aus den zurückliegenden Jahren hat gezeigt, dass sich die Skalenfaktoren des FGM stark mit der Zeit ändern. Dieser Verlauf lässt sich gut durch eine Logarithmuskurve anpassen. Andere Parameter wie die Winkel und die Offsets scheinen stabil zu sein. Eine Ausnahme macht der Offset der Z-Komponent. Dieser bedarf einer regelmäßigen Korrektur. Während die Standardverarbeitung eine undifferenzierte Bestimmung aller 9 FGM Parameter durch nicht-lineare Inversion der skalar Daten vornimmt, beziehen wir jetzt die langzeitlichen Eigenschaften der Parameter in die Bestimmung mit ein. Eine weitere Verbesserung der CHAMP-Magnetfelddaten konnte erreicht werden durch geeignete Berücksichtigung von Störung vom Raumfahrzeug. Die verbleibenden Unsicherheiten konnten durch diese Maßnahmen auf eine Standardabweichung von 0.1nT reduziert werden. KW - Magnetische Feldmessungen KW - Magnetometer-Kalibrierung KW - Magnetfeld-Satellit KW - Magnetic field measurements KW - magnetometer calibration KW - magnetic field satellites Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41201 ER - TY - INPR A1 - Eckstein, Lars T1 - Think local sell global BT - magical realism, The Whale Rider and the market Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-85537 ER - TY - GEN A1 - Eckstein, Lars T1 - M.I.A.’s “Born Free” and the ambivalent politics of authenticity and provocation T3 - Zweitveröffentlichungen der Universität Potsdam : Philosophische Reihe - 83 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59236 ER - TY - THES A1 - Strohm, Daniela T1 - Modulation der Insulinsignalgebung durch Prostaglandin E2 und Endocannabinoide T1 - Modulation of insulin signaling by prostaglandin E2 and endocannabinoids N2 - Die adipositasbedingte Insulinresistenz geht mit einer unterschwelligen Entzündungsreaktion einher. Als Antwort auf dieses Entzündungsgeschehen wird PGE2 unter anderem von Kupffer Zellen der Leber freigesetzt und kann seine Wirkung über vier PGE2-Rezeptorsubtypen (EP1-EP4) vermitteln. In vorangegangenen Arbeiten konnte gezeigt werden, dass PGE2 in Rattenhepatozyten über den EP3 R ERK1/2-abhängig die intrazelluläre Weiterleitung des Insulinsignals hemmt. Über die Modulation der Insulinrezeptorsignalkette durch andere EP-Rezeptoren war bisher nichts bekannt. Daher sollte in stabil transfizierten Zelllinien, die jeweils nur einen der vier EP-Rezeptorsubtypen exprimierten, der Einfluss von PGE2 auf die Insulinrezeptorsignalkette untersucht werden. Es wurden HepG2-Zellen, die keinen funktionalen EP-Rezeptor aufwiesen, sowie HepG2-Zellen, die stabil den EP1-R (HepG2-EP1), den EP3β-R (HepG2 EP3β) oder den EP4-R (HepG2 EP4) exprimierten, sowie die humane fötale Hepatozytenzelllinie, Fh hTert, die den EP2- und den EP4-R exprimierte, für die Untersuchungen verwendet. Die Zellen wurden für 330 min mit PGE2 (10 µM) vorinkubiert, um die pathophysiologische Situation nachzustellen und anschließend mit Insulin (10 nM) für 15 min stimuliert. Die insulinabhängige Akt- und ERK1/2-Phosphorylierung wurde im Western-Blot bestimmt. In allen Hepatomzelllinien die EP-R exprimierten, nicht aber in der Zelllinie, die keinen EP R exprimierte, hemmte PGE2 die insulinstimulierte Akt-Phosphorylierung. In allen drei stabil transfizierten Zelllinien, nicht jedoch in den Fh-hTert-Zellen, steigerte PGE2 die basale und insulinstimulierte Phosphorylierung der Serin/Threoninkinase ERK1/2. In den HepG2 EP1- und den HepG2-EP3β-Zellen steigerte PGE2 mutmaßlich über die ERK1/2-Aktivierung die Serinphosphorylierung des IRS, welche die Weiterleitung des Insulinsignals blockiert. Die Hemmung der Aktivierung von ERK1/2 hob in EP3 R-exprimierenden Zellen die Abschwächung der Insulinsignalübertragung teilweise auf. In diesen Zellen scheint die ERK1/2-Aktivierung die größte Bedeutung für die Hemmung der insulinstimulierten Akt-Phosphorylierung zu haben. Da durch die Hemmstoffe die PGE2-abhängige Modulation nicht vollständig aufgehoben wurde, scheinen darüber hinaus aber noch andere Mechanismen zur Modulation beizutragen. In den Fh hTert-Zellen wurde die Insulinrezeptorsignalkette offensichtlich über einen ERK1/2-unabhängigen, bisher nicht identifizierten Weg unterbrochen. Eine gesteigerte PGE2-Bildung im Rahmen der Adipositas ist nicht auf die peripheren Gewebe beschränkt. Auch im Hypothalamus können bei Adipositas Zeichen einer Entzündung nachgewiesen werden, die mit einer gesteigerten PGE2-Bildung einhergehen. Daher wurde das EP R-Profil von primären hypothalamischen Neuronen und neuronalen Modellzelllinien charakterisiert, um zu prüfen, ob PGE2 in hypothalamischen Neuronen die Insulinsignalkette in ähnlicher Weise unterbricht wie in Hepatozyten. In allen neuronalen Zellen hemmte die Vorinkubation mit PGE2 die insulinstimulierte Akt-Phosphorylierung nicht. In der neuronalen hypothalamischen Zelllinie N 41 wirkte PGE2 eher synergistisch mit Insulin. In durch Retinsäure ausdifferenzierten SH SY5Y-Zellen waren die Ergebnisse allerdings widersprüchlich. Dies könnte darauf zurückzuführen sein, dass die Expression der EP Rezeptoren im Verlauf der Kultur stark schwankte und somit die EP R-Ausstattung der Zellen zwischen den Zellversuchen variierte. Auch in den primären hypothalamischen Neuronen variierte die EP R-Expression abhängig vom Differenzierungszustand und PGE2 beeinflusste die insulinstimulierte Akt-Phosphorylierung nicht. Obwohl in allen neuronalen Zellen die Akt-Phosphorylierung durch Insulin gesteigert wurde, konnte in keiner der Zellen eine insulinabhängige Regulation der Expression von Insulinzielgenen (POMC und AgRP) nachgewiesen werden. Das liegt wahrscheinlich an dem niedrigen Differenzierungsgrad der untersuchten Zellen. Im Rahmen der Adipositas kommt es zu einer Überaktivierung des Endocannabinoidsystems. Endocannabinoidrezeptoren sind mit den EP Rezeptoren verwandt. Daher wurde geprüft, ob Endocannabinoide die Insulinsignalweiterleitung in ähnlicher Weise beeinflussen können wie PGE2. Die Vorinkubation der N 41-Zellen für 330 min mit einem Endocannabinoidrezeptoragonisten steigerte die insulinstimulierte Akt-Phosphorylierung, was auf einen insulinsensitiven Effekt von Endocannabinoiden hindeutet. Dies steht im Widerspruch zu der in der Literatur beschriebenen endocannabinoidabhängigen Insulinresistenz, die aber auf indirekte, durch Endocannabinoide ausgelöste Veränderungen zurückzuführen sein könnte. N2 - The obesity related insulin resistance is accompanied by a low grade inflammation. In response to inflammatory stimuli, PGE2 is released from Kupffer cells and signals through four G-Protein coupled PGE2-receptors (EP1-EP4). Previous work showed that PGE2 attenuated insulin signaling in rat hepatocytes through an EP3ß- and ERK1/2-dependent mechanism. Since EP-receptor expression on hepatocytes varies between species and physiological conditions, the effect of the individual EP receptor subtypes on insulin signaling was studied in hepatoma cell lines expressing individual EP receptor subtypes. HepG2 cells lacking functional EP-receptors, and derivatives stably expressing either EP1 receptor (HepG2-EP1), EP3ß receptor (HepG2-EP3ß) or EP4 receptor (HepG2-EP4) and Fh-hTert cells expressing EP2- and EP4-receptor were pre-incubated with PGE2 for 330 min to mimic the sub-acute inflammation. The cells were subsequently stimulated with insulin for 15 min. Akt and ERK1/2 activation was determined by Western Blotting with phospho-specific antibodies. PGE2 inhibited insulin stimulated Akt phosphorylation in all cell lines expressing EP receptors, except in HepG2 cells which are lacking functional EP receptors. PGE2 increased insulin stimulated phosphorylation of the serine/threonine kinase ERK1/2 in all EP R expressing HepG2 cell lines except in Fh-hTert cells. In HepG2-EP1 and HepG2 EP3ß cells PGE2 increased the serine phosphorylation of the insulin receptor substrate, presumably through an ERK1/2 activation. This IRS-serine phosphorylation leads to attenuation of insulin signal transduction. Inhibiting ERK1/2 activation with a specific inhibitor attenuated the PGE2-dependent inhibition of insulin signal transmission in HepG2 EP3ß cells to some extent. ERK1/2 activation in these cells seems to be of major importance for the observed attenuation of insulin stimulated Akt phosphorylation. Application of inhibitors in the other cell lines stably expressing EP receptors provided evidence that other mechanisms contributed to the attenuation of insulin signaling. Insulin signal transduction in Fh-hTert cells by PGE2 was apparently blocked by an ERK1/2-independent mechanism. Increased PGE2 production during obesity is not limited to the periphery. Signs of inflammation have been detected in the hypothalamus, which might be associated with an increased PGE2 production. Therefore, the EP receptor profile of primary neurons as well as neuronal cell models was characterised in order to investigate, whether PGE2 attenuates insulin signal transduction in neuronal cells similar to what was observed in hepatocytes. Pre-incubation with PGE2 did not attenuate insulin stimulated Akt phosphorylation in all neuronal cells. The EP receptor profile in SH SY5Y cells and in primary neurons varied depending on the differentiation status of the cells. Although Akt-kinase was phosphorylated in response to insulin stimulation in all neuronal cells studied, gene expression of insulin target genes (POMC, AgRP) was not modulated by insulin. This might be due to the low level of differentiation of the investigated cells. In the course of obesity, an over-activation of the endocannabinoid system is detected. Since endocannabinoid receptors are related to EP receptors, it was investigated whether endocannabinoids can interfere with insulin signaling in a similar way as PGE2. Pre-incubation of the neuronal cell line N 41 for 330 min with an endocannabinoid receptor agonist, increased insulin stimulated Akt phosphorylation. This implies an insulin sensitising effect of endocannabinoids. This is contradictory to the endocannabinoid-dependent insulin resistance described in the literature and might be caused by indirect endocannabinoid-triggered mechanisms. KW - Insulin KW - Prostaglandin E2 KW - Endocannabinoide KW - Signalübertragung KW - Insulin KW - prostaglandin E2 KW - endocannabinoids KW - signal transduction Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49678 ER - TY - GEN A1 - Weiße, Andrea Y. A1 - Middleton, Richard H. A1 - Huisinga, Wilhelm T1 - Quantifying uncertainty, variability and likelihood for ordinary differential equation models T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Background In many applications, ordinary differential equation (ODE) models are subject to uncertainty or variability in initial conditions and parameters. Both, uncertainty and variability can be quantified in terms of a probability density function on the state and parameter space. Results The partial differential equation that describes the evolution of this probability density function has a form that is particularly amenable to application of the well-known method of characteristics. The value of the density at some point in time is directly accessible by the solution of the original ODE extended by a single extra dimension (for the value of the density). This leads to simple methods for studying uncertainty, variability and likelihood, with significant advantages over more traditional Monte Carlo and related approaches especially when studying regions with low probability. Conclusions While such approaches based on the method of characteristics are common practice in other disciplines, their advantages for the study of biological systems have so far remained unrecognized. Several examples illustrate performance and accuracy of the approach and its limitations. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 894 KW - ordinary differential equation KW - Unscented Kalman Filter KW - global sensitivity analysis KW - Ordinary Differential Equation model KW - joint normal distribution Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431340 SN - 1866-8372 IS - 894 ER - TY - THES A1 - Wilke, Franziska Daniela Helena T1 - Quantifying crystalline exhumation in the Himalaya T1 - Quantifizierung von Exhumationsbedingungen der kristallinen Gesteine aus dem Himalaja N2 - In 1915, Alfred Wegener published his hypotheses of plate tectonics that revolutionised the world for geologists. Since then, many scientists have studied the evolution of continents and especially the geologic structure of orogens: the most visible consequence of tectonic processes. Although the morphology and landscape evolution of mountain belts can be observed due to surface processes, the driving force and dynamics at lithosphere scale are less well understood despite the fact that rocks from deeper levels of orogenic belts are in places exposed at the surface. In this thesis, such formerly deeply-buried (ultra-) high-pressure rocks, in particular eclogite facies series, have been studied in order to reveal details about the formation and exhumation conditions and rates and thus provide insights into the geodynamics of the most spectacular orogenic belt in the world: the Himalaya. The specific area investigated was the Kaghan Valley in Pakistan (NW Himalaya). Following closure of the Tethyan Ocean by ca. 55-50 Ma, the northward subduction of the leading edge of India beneath the Eurasian Plate and subsequent collision initiated a long-lived process of intracrustal thrusting that continues today. The continental crust of India – granitic basement, Paleozoic and Mesozoic cover series and Permo-Triassic dykes, sills and lavas – has been buried partly to mantle depths. Today, these rocks crop out as eclogites, amphibolites and gneisses within the Higher Himalayan Crystalline between low-grade metamorphosed rocks (600-640°C/ ca. 5 kbar) of the Lesser Himalaya and Tethyan sediments. Beside tectonically driven exhumation mechanisms the channel flow model, that describes a denudation focused ductile extrusion of low viscosity material developed in the middle to lower crust beneath the Tibetan Plateau, has been postulated. To get insights into the lithospheric and crustal processes that have initiated and driven the exhumation of this (ultra-) high-pressure rocks, mineralogical, petrological and isotope-geochemical investigations have been performed. They provide insights into 1) the depths and temperatures to which these rocks were buried, 2) the pressures and temperatures the rocks have experienced during their exhumation, 3) the timing of these processes 4) and the velocity with which these rocks have been brought back to the surface. In detail, through microscopical studies, the identification of key minerals, microprobe analyses, standard geothermobarometry and modelling using an effective bulk rock composition it has been shown that published exhumation paths are incomplete. In particular, the eclogites of the northern Kaghan Valley were buried to depths of 140-100 km (36-30 kbar) at 790-640°C. Subsequently, cooling during decompression (exhumation) towards 40-35 km (17-10 kbar) and 630-580°C has been superseded by a phase of reheating to about 720-650°C at roughly the same depth before final exhumation has taken place. In the southern-most part of the study area, amphibolite facies assemblages with formation conditions similar to the deduced reheating phase indicate a juxtaposition of both areas after the eclogite facies stage and thus a stacking of Indian Plate units. Radiometric dating of zircon, titanite and rutile by U-Pb and amphibole and micas by Ar-Ar reveal peak pressure conditions at 47-48 Ma. With a maximum exhumation rate of 14 cm/a these rocks reached the crust-mantle boundary at 40-35 km within 1 Ma. Subsequent exhumation (46-41 Ma, 40-35 km) decelerated to ca. 1 mm/a at the base of the continental crust but rose again to about 2 mm/a in the period of 41-31 Ma, equivalent to 35-20 km. Apatite fission track (AFT) and (U-Th)/He ages from eclogites, amphibolites, micaschists and gneisses yielded moderate Oligocene to Miocene cooling rates of about 10°C/Ma in the high altitude northern parts of the Kaghan Valley using the mineral-pair method. AFT ages are of 24.5±3.8 to 15.6±2.1 Ma whereas apatite (U-Th)/He analyses yielded ages between 21.0±0.6 and 5.3±0.2 Ma. The southern-most part of the Valley is dominated by younger late Miocene to Pliocene apatite fission track ages of 7.6±2.1 and 4.0±0.5 Ma that support earlier tectonically and petrologically findings of a juxtaposition and stack of Indian Plate units. As this nappe is tectonically lowermost, a later distinct exhumation and uplift driven by thrusting along the Main Boundary Thrust is inferred. A multi-stage exhumation path is evident from petrological, isotope-geochemical and low temperature thermochronology investigations. Buoyancy driven exhumation caused an initial rapid exhumation: exhumation as fast as recent normal plate movements (ca. 10 cm/a). As the exhuming units reached the crust-mantle boundary the process slowed down due to changes in buoyancy. Most likely, this exhumation pause has initiated the reheating event that is petrologically evident (e.g. glaucophane rimmed by hornblende, ilmenite overgrowth of rutile). Late stage processes involved widespread thrusting and folding with accompanied regional greenschist facies metamorphism, whereby contemporaneous thrusting on the Batal Thrust (seen by some authors equivalent to the MCT) and back sliding of the Kohistan Arc along the inverse reactivated Main Mantle Thrust caused final exposure of these rocks. Similar circumstances have been seen at Tso Morari, Ladakh, India, 200 km further east where comparable rock assemblages occur. In conclusion, as exhumation was already done well before the initiation of the monsoonal system, climate dependent effects (erosion) appear negligible in comparison to far-field tectonic effects. N2 - Seit der von Alfred Wegener 1915 postulierten Hypothese der Plattentektonik haben viele Forscher Anstrengungen unternommen die Entstehungsgeschichte und den geologischen Aufbau von Gebirgen nachzuvollziehen. Oberflächennahe Abläufe sind ansatzweise verstanden, während Prozesse im Erdinneren weit weniger bekannt sind. Informationen hierüber können jedoch aus den Gesteinen, ihren Mineralen und wiederum deren chemischen Komponenten gewonnen werden, da diese die Entstehung und Entwicklung der Gebirgsbildung “miterlebt”, und wichtige Informationen gespeichert haben. In dieser Arbeit wurden dazu exemplarisch (Ultra-) Hochdruckgesteine ((U-)HP), sogenannte Eklogite, und deren Umgebungsgesteine aus dem nordwestlichen Himalaja, insbesondere aus dem Kaghan Tal in Pakistan untersucht um den Exhumationsprozess von tief subduzierten Krustengesteinen im allgemeinen, und im Hinblick auf mögliche klimabedingte Einflüsse, besser zu verstehen. Die Bildung des Himalajas ist auf die Versenkung, eines südlich der eurasischen Platte angesiedelten Ozeans, der Tethys, und die nachfolgende Kollision Indiens mit dem Eurasischen Kontinent vor und seit etwa 50-55 Millionen Jahre zurück zu führen. Dabei wurden kalter, dichter Ozeanboden und leichtere Krustensegmente rasch in große Tiefen subduziert. Heute sind diese Hochdruck- und ultra Hochdruckgesteine in einigen Bereichen des Himalaja zwischen schwach metamorph überprägten (600-640°C/ca. 5 kbar) Gesteinen und alten Sedimenten der Tethys aufgeschlossen. Anhand von petrographischen, mineral-chemischen, petrologischen und isotopen-geochemischen Untersuchungen dieser (Ultra) Hochdruckgesteine konnte ich zeigen, dass 1) die Gesteine in über 100 km Tiefe also bis in den Erdmantel vordrangen, 2) sie bei ihrem Aufstieg in Krustenbereiche von 40-35 km zuerst von 790-640°C auf 630-580°C abgekühlten um danach wieder auf 720-650°C aufgeheizt zu werden, sie 3) innerhalb von 700.000 Jahren um mindestens 60 km Richtung Erdoberfläche exhumiert wurden und somit 4) Geschwindigkeiten von 9-14 cm pro Jahr erreichten, die der normaler Plattengeschwindigkeiten (>10 cm/a) entspricht, wobei sich 5) dieser Prozess ab 40-35 km auf 0.1-0.2 cm/a stark verlangsamte und auch 6) ab einer Tiefe von 6 km bis zur Erdoberfläche keine, z. B. niederschlagsbedingt, erhöhte Abkühlungsrate zu erkennen ist. Eine schnelle initiale Exhumierung erfolgte durch den Dichteunterschied von leichtem, subduzierten Krustengestein zum dichteren Mantel. Dieser Prozess kam an der Krusten-Mantel-Grenze nahezu zum erliegen, einhergehend mit einer sekundären Aufheizung des Gesteins und wurde, jedoch weit weniger schnell, durch die Kollision der beiden Kontinente Eurasien und Indien und dadurch bedingte Überschiebungen, Faltungen und gravitative Abschiebungen fortgesetzt, die Gesteine zur Oberfläche transportiert und dort freigelegt. Eine erosions- und damit klimabedingte Beschleunigung oder gar gänzlich davon abhängige kontinuierliche Exhumation konnte in dieser Region des Himalajas nicht bestätigt werden. Vielmehr belegen die Daten eine mehrstufige Exhumation wie sie auch im Tso Morari Gebiet (NW Indien) angenommen wird, für weitere Ultrahochdruckareale wie, z. B. das Kokchetav Massif (Kasachstan), den Dabie Shan (China) oder den europäischen Varisziden (z. B. Böhmisches Massiv) jedoch noch geklärt werden muss, um generell gültige Mantel- und Krustenprozesse abzuleiten. KW - Himalaja (Kaghan) KW - Eklogite KW - Druck-Temperatur Bedingungen KW - (Alters-) Datierungen KW - Exhumationsraten KW - Himalaya (Kaghan Valley) KW - eclogite (UHP) KW - multi-stage exhumation KW - exhumation rates KW - geochronology Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43138 ER - TY - GEN A1 - Shirzadian-Khorramabad, Reza A1 - Jing, Hai-Chun A1 - Everts, Gerja E. A1 - Schippers, Jos H. M. A1 - Hille, Jacques A1 - Dijkwel, Paul P. T1 - A mutation in the cytosolic O-acetylserine (thiol) lyase induces a genome-dependent early leaf death phenotype in Arabidopsis T2 - Postprints der Universität Potsdam : Mathematisch Naturwissenschaftliche Reihe N2 - Background: Cysteine is a component in organic compounds including glutathione that have been implicated in the adaptation of plants to stresses. O-acetylserine (thiol) lyase (OAS-TL) catalyses the final step of cysteine biosynthesis. OAS-TL enzyme isoforms are localised in the cytoplasm, the plastids and mitochondria but the contribution of individual OAS-TL isoforms to plant sulphur metabolism has not yet been fully clarified. Results: The seedling lethal phenotype of the Arabidopsis onset of leaf death3-1 (old3-1) mutant is due to a point mutation in the OAS-A1 gene, encoding the cytosolic OAS-TL. The mutation causes a single amino acid substitution from Gly(162) to Glu(162), abolishing old3-1 OAS-TL activity in vitro. The old3-1 mutation segregates as a monogenic semidominant trait when backcrossed to its wild type accession Landsberg erecta (Ler-0) and the Di-2 accession. Consistent with its semi-dominant behaviour, wild type Ler-0 plants transformed with the mutated old3-1 gene, displayed the early leaf death phenotype. However, the old3-1 mutation segregates in an 11: 4: 1 (wild type: semi-dominant: mutant) ratio when backcrossed to the Colombia-0 and Wassilewskija accessions. Thus, the early leaf death phenotype depends on two semi-dominant loci. The second locus that determines the old3-1 early leaf death phenotype is referred to as odd-ler (for old3 determinant in the Ler accession) and is located on chromosome 3. The early leaf death phenotype is temperature dependent and is associated with increased expression of defence-response and oxidative-stress marker genes. Independent of the presence of the odd-ler gene, OAS-A1 is involved in maintaining sulphur and thiol levels and is required for resistance against cadmium stress. Conclusions: The cytosolic OAS-TL is involved in maintaining organic sulphur levels. The old3-1 mutation causes genome-dependent and independent phenotypes and uncovers a novel function for the mutated OAS-TL in cell death regulation. KW - acyltransferase gene family KW - cysteine synthase complex KW - map-based cloning KW - serine acetyltransferase KW - o-acetylserine(thiol)lyase gene KW - amino-acids KW - glutathione homeostasis KW - functional-analysis KW - sulfur metabolism KW - cadmium tolerance Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427574 SN - 1866-8372 IS - 833 ER - TY - GEN A1 - Budke, Alexandra T1 - Und der Zukunft abgewandt BT - ideologische Erziehung im Geographieunterricht der DDR T2 - Postprints der Universität Potsdam : Mathematisch Naturwissenschaftliche Reihe N2 - Seit dem Ende der DDR, das den Zusammenbruch des Ostblocks und damit die Beendigung des »Kalten Kriegs« einleitete, wird verstärkt versucht, das Wesen dieses Staates zu definieren und damit seine Folgen auf wirtschaftlicher, sozialer, psychologischer und bildungspolitischer Ebene zu verstehen und einzuordnen. Alexandra Budke analysiert in diesem Band das Schulfach Geographie, das neben der Staatsbürgerkunde und der Geschichte ein zentrales Fach war und in dem die in den Lehrplänen definierte »staatsbürgerliche, weltanschauliche oder ideologische Erziehung« auf der Grundlage des Marxismus-Leninismus stattfinden sollte. Sie klärt, inwiefern Geographieunterricht in der DDR genutzt wurde, um geopolitische Interessen des Staates zu kommunizieren und zu verbreiten. Damit lässt sich durch die detaillierte Analyse des Fachunterrichts auch die Frage beantworten, ob SchülerInnen im Unterricht politisch manipuliert wurden und welche Handlungsmöglichkeiten die zentralen Akteure des Unterrichts, die LehrerInnen und die SchülerInnen, im Rahmen der durch die Bildungspolitik gesetzten curricularen Vorgaben wahrgenommen haben. N2 - Since the end of the German Democratic Republic and with it the collapse of the Eastern Bloc and the termination of the Cold War, efforts have been stepped up to define the real essence of the East German state and thus to understand and classify its consequences in economic, social, psychological and educational terms. In this volume, Alexandra Budke analyses the school subject of geography, which was one of the major subjects besides civics and history, in which “civic, philosophical and ideological education” as defined in the curricula was imparted from a Marxist-Leninist perspective. The author examines to what extent geography lessons in East Germany were used to communicate and propagate the geopolitical interests of the state. Her detailed analysis of geography lessons enables her to assess whether school students were politically manipulated, and what options for action were perceived by the key actors in lessons – namely the teachers and the students – within the scope of the curricula imposed by educational policy. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 813 KW - Deutschland, DDR KW - Ideologische Arbeit KW - Geografieunterricht KW - Geschichte Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410801 SN - 978-3-89971-627-6 SN - 1866-8372 IS - 813 ER - TY - GEN A1 - Westendorf, Christian A1 - Bae, Albert J. A1 - Erlenkamper, Christoph A1 - Galland, Edouard A1 - Franck, Carl A1 - Bodenschatz, Eberhard A1 - Beta, Carsten T1 - Live cell flattening BT - traditional and novel approaches T2 - Postprints der Universität Potsdam : Mathematisch Naturwissenschaftliche Reihe N2 - Eukaryotic cell flattening is valuable for improving microscopic observations, ranging from bright field (BF) to total internal reflection fluorescence (TIRF) microscopy. Fundamental processes, such as mitosis and in vivo actin polymerization, have been investigated using these techniques. Here, we review the well known agar overlayer protocol and the oil overlay method. In addition, we present more elaborate microfluidics-based techniques that provide us with a greater level of control. We demonstrate these techniques on the social amoebae Dictyostelium discoideum, comparing the advantages and disadvantages of each method. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 835 KW - PDMS KW - microfluidic device KW - lower channel KW - total internal reflection fluorescence KW - total internal reflection fluorescence microscopy Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-428311 SN - 1866-8372 IS - 835 ER - TY - GEN A1 - Repsilber, Dirk A1 - Kern, Sabine A1 - Telaar, Anna A1 - Walzl, Gerhard A1 - Black, Gillian F. A1 - Selbig, Joachim A1 - Parida, Shreemanta K. A1 - Kaufmann, Stefan H. E. A1 - Jacobsen, Marc T1 - Biomarker discovery in heterogeneous tissue samples BT - taking the in-silico deconfounding approach T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Background: For heterogeneous tissues, such as blood, measurements of gene expression are confounded by relative proportions of cell types involved. Conclusions have to rely on estimation of gene expression signals for homogeneous cell populations, e.g. by applying micro-dissection, fluorescence activated cell sorting, or in-silico deconfounding. We studied feasibility and validity of a non-negative matrix decomposition algorithm using experimental gene expression data for blood and sorted cells from the same donor samples. Our objective was to optimize the algorithm regarding detection of differentially expressed genes and to enable its use for classification in the difficult scenario of reversely regulated genes. This would be of importance for the identification of candidate biomarkers in heterogeneous tissues. Results: Experimental data and simulation studies involving noise parameters estimated from these data revealed that for valid detection of differential gene expression, quantile normalization and use of non-log data are optimal. We demonstrate the feasibility of predicting proportions of constituting cell types from gene expression data of single samples, as a prerequisite for a deconfounding-based classification approach. Classification cross-validation errors with and without using deconfounding results are reported as well as sample-size dependencies. Implementation of the algorithm, simulation and analysis scripts are available. Conclusions: The deconfounding algorithm without decorrelation using quantile normalization on non-log data is proposed for biomarkers that are difficult to detect, and for cases where confounding by varying proportions of cell types is the suspected reason. In this case, a deconfounding ranking approach can be used as a powerful alternative to, or complement of, other statistical learning approaches to define candidate biomarkers for molecular diagnosis and prediction in biomedicine, in realistically noisy conditions and with moderate sample sizes. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 854 KW - differential gene expression KW - quantile normalization KW - heterogeneous tissue KW - gene expression matrix KW - homogeneous cell population KW - selection KW - microdissection Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429343 SN - 1866-8372 IS - 854 ER - TY - GEN A1 - Beta, Carsten T1 - Bistability in the actin cortex T2 - Postprints der Universität Potsdam Mathematisch-Naturwissenschaftliche Reihe N2 - Multi-color fluorescence imaging experiments of wave forming Dictyostelium cells have revealed that actin waves separate two domains of the cell cortex that differ in their actin structure and phosphoinositide composition. We propose a bistable model of actin dynamics to account for these experimental observation. The model is based on the simplifying assumption that the actin cytoskeleton is composed of two distinct network types, a dendritic and a bundled network. The two structurally different states that were observed in experiments correspond to the stable fixed points in the bistable regime of this model. Each fixed point is dominated by one of the two network types. The experimentally observed actin waves can be considered as trigger waves that propagate transitions between the two stable fixed points. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 756 KW - stable fixed point KW - dendritic network KW - total internal reflection fluorescence microscopy KW - dictyostelium cell KW - bistable regime Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429385 VL - 3 IS - 12 ER - TY - THES A1 - Wegerich, Franziska T1 - Engineered human cytochrome c : investigation of superoxide and protein-protein interaction and application in bioelectronic systems T1 - Gentechnisch verändertes humanes Cytochrom c :Untersuchungen von Superoxid und Protein-Protein-Interaktionen sowie der Anwendung in bioelektronischen Systemen N2 - The aim of this thesis is the design, expression and purification of human cytochrome c mutants and their characterization with regard to electrochemical and structural properties as well as with respect to the reaction with the superoxide radical and the selected proteins sulfite oxidase from human and fungi bilirubin oxidase. All three interaction partners are studied here for the first time with human cyt c and with mutant forms of cyt c. A further aim is the incorporation of the different cyt c forms in two bioelectronic systems: an electrochemical superoxide biosensor with an enhanced sensitivity and a protein multilayer assembly with and without bilirubin oxidase on electrodes. The first part of the thesis is dedicated to the design, expression and characterization of the mutants. A focus is here the electrochemical characterization of the protein in solution and immobilized on electrodes. Further the reaction of these mutants with superoxide was investigated and the possible reaction mechanisms are discussed. In the second part of the work an amperometric superoxide biosensor with selected human cytochrome c mutants was constructed and the performance of the sensor electrodes was studied. The human wild-type and four of the five mutant electrodes could be applied successfully for the detection of the superoxide radical. In the third part of the thesis the reaction of horse heart cyt c, the human wild-type and seven human cyt c mutants with the two proteins sulfite oxidase and bilirubin oxidase was studied electrochemically and the influence of the mutations on the electron transfer reactions was discussed. Finally protein multilayer electrodes with different cyt form including the mutant forms G77K and N70K which exhibit different reaction rates towards BOD were investigated and BOD together with the wild-type and engineered cyt c was embedded in the multilayer assembly. The relevant electron transfer steps and the kinetic behavior of the multilayer electrodes are investigated since the functionality of electroactive multilayer assemblies with incorporated redox proteins is often limited by the electron transfer abilities of the proteins within the multilayer. The formation via the layer-by-layer technique and the kinetic behavior of the mono and bi-protein multilayer system are studied by SPR and cyclic voltammetry. In conclusion this thesis shows that protein engineering is a helpful instrument to study protein reactions as well as electron transfer mechanisms of complex bioelectronic systems (such as bi-protein multilayers). Furthermore, the possibility to design tailored recognition elements for the construction of biosensors with an improved performance is demonstrated. N2 - Ziel dieser Arbeit ist es genetisch veränderte Formen von humanem Cytochrom c herzustellen und diese einerseits hinsichtlich der Reaktion mit dem Sauerstoff-Radikal Superoxid aber auch mit anderen Proteinen zu untersuchen. Zusätzlich sollen die verschiedenen Protein-Mutanten in neuartige bioelektronische Systeme eingebracht werden. Es wurden insgesamt 20 Cytochrome c Mutanten designt, rekombinant exprimiert und aufgereinigt. Es konnte in dieser Arbeit gezeigt werden, dass sich die Reaktion von Cytochrom c mit dem negativ geladenen Superoxid durch gezielte Mutationen, die zusätzliche positive Ladungen in das Molekül bringen, um bis zu 30 % erhöhen lässt. Es wurde aber auch deutlich, dass andere Eigenschaften des Proteins sowie dessen Struktur durch die Mutationen geändert werden können. Cytochrom c Mutanten mit einer erhöhten Reaktionsrate mit Superoxid konnten erfolgreich in einen Superoxid-Biosensor mit erhöhter Sensitivität eingebracht werden. Weiterhin wurde einige Mutanten hinsichtlich Ihrer Interaktion mit den zwei Enzymen Sulfitoxidase und Bilirubinoxidase untersucht. Hier konnten ebenfalls unterschiedliche Reaktivitäten festgestellt werden. Schließlich wurden ausgewählte Protein-Varianten mit und ohne den zuvor untersuchten Enzymen in ein Multischicht-Elektroden-System eingebettet und dessen kinetisches Verhalten untersucht. Es wurde gefunden, dass die Schnelligkeit mit der Cytochrom c mit sich selbst Elektronen austauschen kann, eine Limitierung der Größenordnung der katalytischen Ströme darstellt. Diese Selbstaustausschrate wurde durch die eingeführten Mutationen verändert. So verdeutlicht diese Arbeit, dass „Protein-Engineering“ ein gutes Hilfsmittel sein kann, um einerseits Proteinreaktionen und komplexe Elektronentransferreaktionen in Multischichten zu untersuchen, aber auch ein potentes Werkzeug darstellt mit dem zugeschnittene Biokomponenten für Sensoren mit erhöhter Leistungsfähigkeit generiert werden können. KW - Cytochrom c KW - Protein-Engineering KW - Elektrochemie KW - Biosensor KW - Superoxid KW - cytochrome c KW - protein engineering KW - electrochemistry KW - biosensor KW - superoxide Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50782 ER - TY - INPR A1 - Läuter, Henning A1 - Ramadan, Ayad T1 - Modeling and Scaling of Categorical Data N2 - Estimation and testing of distributions in metric spaces are well known. R.A. Fisher, J. Neyman, W. Cochran and M. Bartlett achieved essential results on the statistical analysis of categorical data. In the last 40 years many other statisticians found important results in this field. Often data sets contain categorical data, e.g. levels of factors or names. There does not exist any ordering or any distance between these categories. At each level there are measured some metric or categorical values. We introduce a new method of scaling based on statistical decisions. For this we define empirical probabilities for the original observations and find a class of distributions in a metric space where these empirical probabilities can be found as approximations for equivalently defined probabilities. With this method we identify probabilities connected with the categorical data and probabilities in metric spaces. Here we get a mapping from the levels of factors or names into points of a metric space. This mapping yields the scale for the categorical data. From the statistical point of view we use multivariate statistical methods, we calculate maximum likelihood estimations and compare different approaches for scaling. T3 - Mathematische Statistik und Wahrscheinlichkeitstheorie : Preprint - 2010, 03 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49572 ER - TY - INPR A1 - Runge, Antonia T1 - Modellierung der Lebensdauer von Systemen N2 - Aus dem Inhalt: Einleitung und Zusammenfassung 1 Grundlagen der Lebensdaueranalyse 2 Systemzuverlässigkeit 3 Zensierung 4 Schätzen in nichtparametrischen Modellen 5 Schätzen in parametrischen Modellen 6 Konfidenzintervalle für Parameterschätzungen 7 Verteilung einer gemischten Population 8 Kurze Einführung: Lebensdauer und Belastung 9 Ausblick A R-Quellcode B Symbole und Abkürzungen T3 - Mathematische Statistik und Wahrscheinlichkeitstheorie : Preprint - 2010, 08 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51674 ER - TY - GEN A1 - Hajialioghli, Robab A1 - Moazzen, Mohssen A1 - Jahangiri, Ahmad A1 - Oberhänsli, Roland A1 - Mocek, Beate A1 - Altenberger, Uwe T1 - Petrogenesis and tectonic evolution of metaluminous sub-alkaline granitoids from the Takab Complex, NW Iran T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - The Takab complex is composed of a variety of metamorphic rocks including amphibolites, metapelites, mafic granulites, migmatites and meta-ultramafics, which are intruded by the granitoid. The granitoid magmatic activity occurred in relation to the subduction of the Neo-Tethys oceanic crust beneath the Iranian crust during Tertiary times. The granitoids are mainly granodiorite, quartz monzodiorite, monzonite and quartz diorite. Chemically, the magmatic rocks are characterized by ASI < 1.04, AI < 0.87 and high contents of CaO (up to ∼ 14.5 wt %), which are consistent with the I-type magmatic series. Low FeO t /(FeO t +MgO) values (< 0.75) as well as low Nb, Y and K 2 O contents of the investigated rocks resemble the calc-alkaline series. Low SiO 2 , K 2 O/Na 2 O and Al 2 O 3 accompanied by high CaO and FeO contents indicate melting of metabasites as an appropriate source for the intrusions. Negative Ti and Nb anomalies verify a metaluminous crustal origin for the protoliths of the investigated igneous rocks. These are comparable with compositions of the associated mafic migmatites, in the Takab metamorphic complex, which originated from the partial melting of amphibolites. Therefore, crustal melting and a collision-related origin for the Takab calc-alkaline intrusions are proposed here on the basis of mineralogy and geochemical characteristics. The P–T evolution during magmatic crystallization and subsolidus cooling stages is determined by the study of mineral chemistry of the granodiorite and the quartz diorite. Magmatic crystallization pressure and temperature for the quartz-diorite and the granodiorite are estimated to be P ∼ 7.8 ± 2.5 kbar, T ∼ 760 ± 75 ◦C and P ∼ 5 ± 1 kbar, T ∼ 700 ◦C, respectively. Subsolidus conditions are consistent with temperatures of ∼ 620 ◦C and ∼ 600 ◦C, and pressures of ∼ 5 kbar and ∼ 3.5 kbar for the quartz-diorite and the granodiorite, respectively. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 570 KW - granitoids KW - partial melting KW - Neo-Tethys KW - Takab KW - NW Iran Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413100 SN - 1866-8372 IS - 570 ER - TY - JOUR A1 - Müller, Katja T1 - Forschungsbasierte Lehre T1 - Project-based science instruction N2 - Mit der Integration von Forschung in Lehre gelingen nicht nur aktivierende, teilnehmerorientierte Lehrmethoden, sie bietet vielmehr für Studierende die Möglichkeit an Forschung teilzuhaben. Dabei geht forschungsbasiertes Lernen über die Förderung von Selbstständigkeit und projektorientiertem Studium hinaus, denn es wird von den Studierenden eine sie interessierende Problemstellung entwickelt mit dem Ziel neue Erkenntnisse zu gewinnen. Hierin liegt die Besonderheit des Konzepts: es wird bei den Lerninteressen der Studierenden angesetzt. Dieser Beitrag erörtern ein Beispiel, wie Forschungsprojekte in der Lehre genutzt werden können. N2 - The most challenging and often not well-understood science instructional approach is project-based science instruction. In this paper, the concept “project-based science instruction” is examined. The paper addresses how to teach science for understanding using PBSI and ends by explaining an example for implementing this instructional approach in the classroom. T3 - Brandenburgische Beiträge zur Hochschuldidaktik - 2 KW - forschendes Lernen KW - Lehre KW - Studienqualität Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-49664 ER - TY - BOOK A1 - Nastansky, Andreas A1 - Lanz, Ramona T1 - Bonuszahlungen in der Kreditwirtschaft : Analyse, Regulierung und Entwicklungstendenzen N2 - Die Aussicht auf hohe Bonuszahlungen im Erfolgsfall war ein Grund neben mehreren, der Bankmanager im Vorfeld der Finanzkrise dazu verleitet hat, risikoreiche Unternehmensstrategien zu verfolgen und die langfristige Stabilität der Institute zu gefährden. Vor allem im Kreditwesen wurden falsche Anreize in der leistungs- und erfolgsabhängigen Vergütung gesetzt. Die Vergütungssysteme belohnten Manager und Mitarbeiter für die Erreichung kurzfristiger Gewinnziele – ungeachtet der eingegangenen Risiken. Boni wurden meist in bar ausgezahlt und orientierten sich primär an nicht risikoadjustierten Kennzahlen. Inzwischen hat sich in Anbetracht der Dramatik der Finanz- und Wirtschaftskrise eine deutliche Änderung in der Gestaltung der Bonussysteme angekündigt. Wie die Geschäftsberichte einzelner Institute des Jahres 2009 andeuten, werden mit der Erholung des Bankensektors mittelfristig auch die Bonuszahlungen wieder ansteigen. T3 - Statistische Diskussionsbeiträge - 41 KW - Bonuszahlungen KW - Vergütungssysteme KW - Banken KW - Finanzkrise Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48145 ER - TY - BOOK A1 - Kunze, Karl-Kuno A1 - Strohe, Hans Gerhard T1 - Time-varying persistence in the German stock market N2 - This paper studies the persistence of daily returns of 21 German stocks from 1960 to 2008. We apply a widely used test based upon the modified R/S-Method by Lo [1991]. As an extension to Lux [1996] and Carbone et al. [2004] and in analogy to moving average or moving volatility, the statistics is calculated for moving windows of length 4, 8, and 16 years for every time series. Periods of persistence or long memory in returns can be found in some but not all time series. Robustness of results is verified by investigating stationarity and short memory effects. T3 - Statistische Diskussionsbeiträge - 37 KW - Persistenz KW - Aktienmarkt KW - persistence KW - stock market Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-42046 ER - TY - BOOK A1 - Ulbrich, Hannes-Friedrich T1 - Höherdimensionale Kompositionsdaten : Gedanken zur grafischen Darstellung und Analyse N2 - Kompositionsdaten sind mehrdimensionale Daten, deren Komponenten im Wesentlichen nur relative Informationen enthalten (und die sich deshalb meist zu einem festen Wert wie 1 oder 100% addieren). Wegen ihres geschlossenen Charakters sind sie mit herkömmlichen Methoden (basierend auf einem n-dimensionalen Raum ℝⁿ) nicht konsistent analysierbar. Methoden der Kompositionsdatenanalyse existieren seit etwa 30 Jahren, sie werden kurz vorgestellt. Ein besonderes Problem ist die adäquate Darstellung von Kompositionsdaten. Für (bis zu) drei Komponenten gibt es verschiedene Methoden, für vier und mehr hingegen sind allen Komponenten gleichartig gerecht werdende Darstellungen kaum vorhanden. Ausgehend von den etablierten Methoden der Kompositionsdatenanalyse wird eine neue Darstellungsform vorgeschlagen, Vor- und Nachteile werden theoretisch and anhand von Beispielen diskutiert. T3 - Statistische Diskussionsbeiträge - 43 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-48604 ER - TY - BOOK A1 - Nastansky, Andreas A1 - Strohe, Hans Gerhard T1 - The impact of changes in asset prices on real economic activity : a cointegration analysis for Germany N2 - This paper reviews theoretical and empirical evidence of asset price movements impact on the real economic activity. A key channel is the wealth effect on consumption. Fluctuations in stock prices and housing prices influence the households wealth and could have important impacts on households consumption. In addition, stock prices may affect corporate sector investments and property prices may affect building activity. Here, the method of cointegration is used to estimate the wealth effect and the investment effect in aggregate time series for Germany after the Reunification in 1990. Moreover, we discuss the role of asset prices in the monetary policy strategy of the ECB. T3 - Statistische Diskussionsbeiträge - 38 KW - Stock Prices KW - Property Prices KW - Consumption KW - Investment KW - Central Banking Policy Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43762 ER - TY - BOOK A1 - Dietrich, Irina A1 - Strohe, Hans Gerhard T1 - Die Vielfalt öffentlicher Unternehmen aus der Sicht der Statistik : ein Versuch, das Unstrukturierte zu strukturieren T3 - Statistische Diskussionsbeiträge - 40 KW - öffentliche Unternehmen KW - public enterprise Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-46306 ER - TY - BOOK A1 - Sarin, Bernhard T1 - Ein Leben als Artikulation : die anthropologische Ikonographie der Schriften von Imre Kertész T1 - A life as articulation : the anthropological iconography in the writings of Imre Kertész N2 - Imre Kertész ist 1929 in Budapest geboren und dort aufgewachsen. 1944 wurde er im Rahmen einer Judendeportation verhaftet und über Auschwitz in das KZ Buchenwald verbracht. Nach der Befreiung des Lagers 1945 kehrte er in seine Heimatstadt zurück, wo er seit 1953 als Schriftsteller und Übersetzer tätig war. 2001 verlegte er seinen Lebensmittelpunkt nach Berlin. 2002 erhielt er den Nobelpreis für Literatur. Ziel der Untersuchung ist die Rekonstruktion einer in Kertész’ Werk allegorisch codierten Anthropologie und einer damit implizierten Ästhetik. Die Basis der fraglichen Anthropologie ist der Begriff des Lebens. Das spezifisch menschliche Leben zeichnet sich durch den Prozess der kulturellen Evolution aus, welcher durch verständigungsorientierte Mittel rational zu steuern ist. Die hieraus resultierende Dialektik wird von autonomen Personen konstituiert. Dabei erscheint die generationenübergreifende Reproduktion der Personenrolle und des damit einhergehenden menschlichen Bewusstseins als unbedingte Pflicht im Sinne Kants. Letzterer Vorgang kann als ästhetische Erfahrung beschrieben werden, bei der die menschliche Ontogenese jeweils in Orientierung an paradigmatischen Darstellungen der Personalität respektive der Personalisierung erfolgt. N2 - Imre Kertész was born in Budapest in 1929. He lived there until 1944, when, in the course of a deportation of Jews, he was arrested and taken to the KZ Buchenwald via Auschwitz. After the liberation of the camp in 1945 he returned to his home town, where he began to work as a writer and translator in 1953. In the year 2001 he moved to Berlin. He was awarded the Nobel prize for literature in 2002. The objective of the study is to reconstruct an anthropology allegorically encoded in the oeuvre of Kertész and a theory of aesthetics intrinsic to it. Fundamental to the anthropology in question is the concept of life. Human life in particular is characterized by the process of cultural evolution, which has to be controlled rationally by means of communication. The resulting dialectic is supported by autonomous persons. Thereby the transgenerational reproduction of personality and the corresponding human consciousness appears as a categorical duty in the sense of Kant. The latter proceeding can be described as an aesthetic experience in which the individual human ontogenesis is oriented to paradigmatic representations of personality respectively of personalization. KW - Imre Kertész KW - Philosophische Anthropologie KW - Moralbegründung KW - Argumentationstheorie KW - Ästhetik KW - Imre Kertész KW - Philosophical Anthropology KW - Moral Reasoning KW - Argumentation Theory KW - Aesthetics Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-46046 SN - 978-3-86956-086-1 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Huber, Stefan T1 - Community Organizing in Deutschland : Eine "neue" Möglichkeit zur Vitalisierung Lokaler Demokratie? N2 - Als Instrument der Bürgerbeteiligung wurde Community Organizing von Saul D. Alinsky zum ersten Mal 1939 in Chicago/Illinois erfolgreich umgesetzt. Konzeptionell speist es sich aus der Stadtsoziologie, der sozialen Arbeit sowie einer interkulturell ausgerichteten, politischen Erwachsenenbildung. In den USA hat es sich seitdem auf lokaler und überregionaler Ebene etabliert und wird nun auch in Deutschland rezipiert und zunehmend projekthaft umgesetzt. Diese Arbeit beschreibt das Konzept des Community Organizing in Deutschland explorativ und zeigt fördernde und hemmende Faktoren für dessen Umsetzung auf. Zudem wird das Konzept für den deutschen Fall bezüglich partizipativer Demokratietheorien theoretisch diskutiert und verortet: Kann Community Organizing der Theorie der partizipativen Demokratie zugeordnet werden? Hierfür wurde die Ausprägung der Kriterien Deliberation, direkter Demokratie im weitesten Sinne, Dezentralisierung, Segmentierung und Delegation untersucht und bewertet. Die zweite Frage setzt sich mit der Wirksamkeit von umgesetzten Community Organizing-Projekten auseinander: Kann es als erfolgreiches Bürgerbeteiligungsinstrument auf lokaler Ebene betrachtet werden und inwiefern können dabei die demokratietheoretischen Kriterien Legitimität, Effektivität und Qualifizierung der Bürgerinnen und Bürger erfüllt werden? T3 - KWI-Arbeitshefte - 17 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-43835 SN - 978-3-86956-075-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wu, Ye T1 - Nonlinear dynamics in complex networks and modeling human dynamics T1 - Nichtlineare Dynamik in komplexen Netzwerken und Modellierung menschlicher Dynamik N2 - Durch große Datenmengen können die Forscher die Eigenschaften komplexer Systeme untersuchen, z.B. komplexe Netzwerk und die Dynamik des menschlichen Verhaltens. Eine große Anzahl an Systemen werden als große und komplexe Netzwerke dargestellt, z.B. das Internet, Stromnetze, Wirtschaftssysteme. Immer mehr Forscher haben großes Interesse an der Dynamik des komplexen Netzwerks. Diese Arbeit besteht aus den folgenden drei Teilen. Der erste Teil ist ein einfacher dynamischer Optimierungs-Kopplungs-Mechanismus, aber sehr wirksam. Durch den Mechanismus kann synchronisation in komplexen Netzwerken mit und ohne Zeitverzögerung realisiert, und die Fähigkeit der Synchronisation von small-world und scale-free Netze verbessert werden. Im zweiten Teil geht um die Verstärkung der Robustheit der scale-free Netze im Zusammenhang mit der Gemeinden-Struktur. Einige Reaktionsmuster und topologische Gemeinden sind einheitlich. Die Ergebnisse zeigen einen neuen Aspekt der Beziehung zwischen den Funktionen und der Netzwerk-Topologie von komplexen Netzwerken. Im dritten Teil welche eine wichtige Rolle in komplexen Netzwerken spielt, wird die Verhaltens-Dynamik der menschliche Mitteilung durch Daten- und Modellanalysierung erforscht, dann entsteht ein neues Mitteilungsmodell. Mit Hilfe von einem Interaktion priority-Queue Model kann das neue Modell erklärt werden. Mit Hilfe des Models können viele praktische Interaktions-Systeme erklärt werden, z.B. E-Mail und Briefe (oder Post). Mit Hilfe meiner Untersuchung kann man menschliches Verhalten auf der Individuums- und Netzwerkebene neu kennenlernen. Im vierter Teil kann ich nachweisen, dass menschliches Kommentar-Verhalten in on-line Sozialsystemen, eine andere Art der Interaktionsdynamik von Mensch non-Poisson ist und dieses am Modell erklären. Mit Hilfe der non-Poisson Prozesse kann man das persönliche Anziehungskraft-Modell besser verstehen. Die Ergebnisse sind hilfreich zum Kennenlernen des Musters des menschlichen Verhaltens in on-line Gesellschaften und der Entwicklung von öffentlicher Meinung nicht nur in der virtuellen Gesellschaftn sondern auch in der Realgesellschaft. Am Ende geht es um eine Prognose von menschlicher Dynamik und komplexen Netzwerken. N2 - The availability of large data sets has allowed researchers to uncover complex properties in complex systems, such as complex networks and human dynamics. A vast number of systems, from the Internet to the brain, power grids, ecosystems, can be represented as large complex networks. Dynamics on and of complex networks has attracted more and more researchers’ interest. In this thesis, first, I introduced a simple but effective dynamical optimization coupling scheme which can realize complete synchronization in networks with undelayed and delayed couplings and enhance the small-world and scale-free networks’ synchronizability. Second, I showed that the robustness of scale-free networks with community structure was enhanced due to the existence of communities in the networks and some of the response patterns were found to coincide with topological communities. My results provide insights into the relationship between network topology and the functional organization in complex networks from another viewpoint. Third, as an important kind of nodes of complex networks, human detailed correspondence dynamics was studied by both data and the model. A new and general type of human correspondence pattern was found and an interacting priority-queues model was introduced to explain it. The model can also embrace a range of realistic social interacting systems such as email and letter communication. My findings provide insight into various human activities both at the individual and network level. Fourth, I present clearly new evidence that human comment behavior in on-line social systems, a different type of interacting human dynamics, is non-Poissonian and a model based on the personal attraction was introduced to explain it. These results are helpful for discovering regular patterns of human behavior in on-line society and the evolution of the public opinion on the virtual as well as real society. Finally, there are conclusion and outlook of human dynamics and complex networks. KW - komplexe Netzwerke KW - menschliche Dynamik KW - complex networks KW - human dynamics Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47358 ER - TY - BOOK A1 - Lange, Dustin A1 - Böhm, Christoph A1 - Naumann, Felix T1 - Extracting structured information from Wikipedia articles to populate infoboxes N2 - Roughly every third Wikipedia article contains an infobox - a table that displays important facts about the subject in attribute-value form. The schema of an infobox, i.e., the attributes that can be expressed for a concept, is defined by an infobox template. Often, authors do not specify all template attributes, resulting in incomplete infoboxes. With iPopulator, we introduce a system that automatically populates infoboxes of Wikipedia articles by extracting attribute values from the article's text. In contrast to prior work, iPopulator detects and exploits the structure of attribute values for independently extracting value parts. We have tested iPopulator on the entire set of infobox templates and provide a detailed analysis of its effectiveness. For instance, we achieve an average extraction precision of 91% for 1,727 distinct infobox template attributes. N2 - Ungefähr jeder dritte Wikipedia-Artikel enthält eine Infobox - eine Tabelle, die wichtige Fakten über das beschriebene Thema in Attribut-Wert-Form darstellt. Das Schema einer Infobox, d.h. die Attribute, die für ein Konzept verwendet werden können, wird durch ein Infobox-Template definiert. Häufig geben Autoren nicht für alle Template-Attribute Werte an, wodurch unvollständige Infoboxen entstehen. Mit iPopulator stellen wir ein System vor, welches automatisch Infoboxen von Wikipedia-Artikeln durch Extrahieren von Attributwerten aus dem Artikeltext befüllt. Im Unterschied zu früheren Arbeiten erkennt iPopulator die Struktur von Attributwerten und nutzt diese aus, um die einzelnen Bestandteile von Attributwerten unabhängig voneinander zu extrahieren. Wir haben iPopulator auf der gesamten Menge der Infobox-Templates getestet und analysieren detailliert die Effektivität. Wir erreichen beispielsweise für die Extraktion einen durchschnittlichen Precision-Wert von 91% für 1.727 verschiedene Infobox-Template-Attribute. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 38 KW - Informationsextraktion KW - Wikipedia KW - Linked Data KW - Information Extraction KW - Wikipedia KW - Linked Data Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-45714 SN - 978-3-86956-081-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Hellmann, Uwe A1 - Esakov, Gennady A1 - Golovnenkov, Pavel T1 - Bestimmung des Sondersubjekts bei Wirtschaftsstraftaten im russischen und deutschen Recht N2 - Der vorliegende erste Band der Reihe „Schriften zum deutschen und russischen Strafrecht“ beschäftigt sich mit der für die Rechtsordnungen Deutschlands und Russlands gleichermaßen aktuellen Frage nach der zutreffenden Bestimmung des Subjekts bei den Sonderdelikten im Wirtschaftsstrafrecht. Da das russische Strafrecht keine allgemeine Vorschrift zur „Überwälzung“ besonderer persönlicher Merkmale enthält, muss der Adressatenkreis von Sonderdelikten durch – im Einzelnen strittige – dogmatische Konstruktionen bestimmt werden; besondere Schwierigkeiten bereitet die Einordnung des Insolvenzverwalters. Für das deutsche Strafrecht sind dagegen die Probleme bei der Anwendung des § 14 StGB, der eine für alle Sonderdelikte geltende Vorschrift darstellt, zu erörtern; ein Schwerpunkt liegt ebenfalls bei der Untersuchung der Stellung des Insolvenzverwalters. Der Band enthält eine deutsch- und eine russischsprachige Fassung des Beitrages. N2 - В первой книге серии «Научные труды в области немецкого и российского уголовного права» содержится анализ проблемы, одинаково актуальной для немецкого и российского уголовного права. Речь идет о правильном определении субъекта специальных деликтов экономического уголовного права. Поскольку Общая часть российского уголовного законодательства не располагает нормой, позволяющей «переносить» особые индивидуальные признаки на действующего индивида, необходимо при помощи (отчасти дискуссионных) правовых инструментов определить круг адресатов специальных деликтов. Особые проблемы в данной связи связаны с решением вопроса об уголовной ответственности арбитражного управляющего. В немецком уголовном праве, напротив, речь идет о проблемах, связанных с применением § 14 Уголовного уложения ФРГ, действующего в отношении всех специальных деликтов. Особое внимание также уделяется правовому положению конкурсного управляющего. Книга содержит описание данных проблем на немецком и русском языке. T3 - Schriften zum deutschen und russischen Strafrecht = Научные труды в области немецкого и российского уголовного права - 1 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-46458 SN - 978-3-86956-088-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Ruch, Joël T1 - Volcano deformation analysis in the Lazufre area (central Andes) using geodetic and geological observations T1 - Vulkan Deformationsanalyse im Bereich Lazufre (Zentral-Anden) mit geodätischen und geologischen Beobachtungen N2 - Large-scale volcanic deformation recently detected by radar interferometry (InSAR) provides new information and thus new scientific challenges for understanding volcano-tectonic activity and magmatic systems. The destabilization of such a system at depth noticeably affects the surrounding environment through magma injection, ground displacement and volcanic eruptions. To determine the spatiotemporal evolution of the Lazufre volcanic area located in the central Andes, we combined short-term ground displacement acquired by InSAR with long-term geological observations. Ground displacement was first detected using InSAR in 1997. By 2008, this displacement affected 1800 km2 of the surface, an area comparable in size to the deformation observed at caldera systems. The original displacement was followed in 2000 by a second, small-scale, neighbouring deformation located on the Lastarria volcano. We performed a detailed analysis of the volcanic structures at Lazufre and found relationships with the volcano deformations observed with InSAR. We infer that these observations are both likely to be the surface expression of a long-lived magmatic system evolving at depth. It is not yet clear whether Lazufre may trigger larger unrest or volcanic eruptions; however, the second deformation detected at Lastarria and the clear increase of the large-scale deformation rate make this an area of particular interest for closer continuous monitoring. N2 - Vulkanische Deformationen in großem Maßstab, die mittels InSAR gemessen wurden, liefern neue Informationen und dadurch einen neuen Blickwinkel auf vulkan-tektonische Aktivitäten und das Verständnis von langlebigen, magmatischen Systemen. Die Destabilisierung eines solchen Systems in der Tiefe beeinflusst dauerhaft die Oberfläche durch Versatz des Bodens, magmatische Einflüsse und vulkanische Unruhen. Mit der Kombination aus kleinräumigem Bodenversatz gemessen mittels InSAR, numerischer Modellierung und langfristigen geologischen Beobachtungen, analysieren wir die Gegend um den Vulkan Lazufre in den Zentralanden, um die raumzeitliche Entwicklung der Region zu bestimmen. Bodenversatz wurde hierbei im Jahr 1997 mittels Radar-Interferrometrie (InSAR) gemessen, was eine Fläche von 1800 km² ausmacht, vergleichbar mit der Größe der Deformation des Kraters. Im Jahr 2000 wurde zusätzlich eine kleinräumige Deformation am Nachbarvulkan Lastarria entdeckt. Wir sehen räumliche als auch zeitliche Verbindungen zwischen der Deformation des Vulkans und vulkanischen Strukturen innerhalb der betroffenen Gegend. Wir folgern daraus, dass diese Beobachtungen der Ausdruck eines langlebigen, magmatischen Systems in der Tiefe an der Oberfläche sind. Es ist noch nicht klar, ob Lazufre größere vulkanische Unruhen, wie zum Beispiel Eruptionen auslösen könnte, aber die Deformation am Vulkan Lastarria und ein Anstieg der großräumigen Deformationsrate, machen diese Region interessant für eine zukünftige, kontinuierliche Überwachung. KW - Vulkan Verformung KW - InSAR KW - zentralen Anden KW - Spannungsfeld KW - volcano deformation KW - InSAR KW - central Andes KW - stress field Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47361 ER - TY - BOOK A1 - Renans, Agata A1 - Zimmermann, Malte A1 - Greif, Markus T1 - Questionnaire on focus semantics N2 - This is the 15th issue of the working paper series Interdisciplinary Studies on Information Structure (ISIS) of the Sonderforschungsbereich (SFB) 632. This online version contains the Questionnaire on Focus Semantics contributed by Agata Renans, Malte Zimmermann and Markus Greif, members of Project D2 investigating information structural phenomena from a typological perspective. The present issue provides a tool for collecting and analyzing natural data with respect to relevant linguistic questions concerning focus types, focus sensitive particles, and the effects of quantificational adverbs and presupposition on focus semantics. This volume is a supplementation to the Reference manual of the Questionnaire on Information Structure, issued by Project D2 in ISIS 4 (2006). T3 - Interdisciplinary studies on information structure : ISIS ; working papers of the SFB 632 - 15 KW - focus sensitive expressions KW - semantic fieldwork KW - methodology Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-36826 ER - TY - JOUR A1 - Freywald, Ulrike A1 - Mayr, Katharina A1 - Schalowski, Sören A1 - Wiese, Heike T1 - Linguistic Fieldnotes II: Information structure in different variants of written German JF - Interdisciplinary studies on information structure : ISIS ; working papers of the SFB 632 N2 - Dieser Band versammelt Originaldaten aus einer Erhebung, die im Rahmen des SFB-Teilprojekts B6 „Kiezdeutsch“ im Frühjahr 2010 in Berlin und İzmir, Türkei, durchgeführt wurde. Sämtliche hier dokumentierten Daten wurden schriftlich produziert; sie stammen von drei verschiedenen Sprechergruppen: Jugendliche aus einem multiethnischen Berliner Wohngebiet, die untereinander Kiezdeutsch sprechen, Jugendliche aus einem monoethnischen Berliner Wohngebiet, in dem der traditionelle Berliner Dialekt vorherrscht, und türkische Jugendliche in İzmir, die Deutsch als Fremdsprache gesteuert erworben haben. T3 - Interdisciplinary studies on information structure : ISIS ; working papers of the SFB 632 - 14 KW - Kiezdeutsch KW - Jugendsprache KW - Berlinisch KW - DaF KW - L1 Türkisch Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-36830 SN - 1614-4708 SN - 1866-4725 VL - 14 SP - 1 EP - 80 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Kilic, Esra A1 - Moritz, Katharina A1 - Platz, Franziska A1 - Kaun, Mario A1 - Triebe, Christoffer A1 - Klicks, Jan A1 - Busch, Julian A1 - Schlegelmilch, Valentin A1 - Post, Asgard A1 - Gummelt, Rene A1 - Möschl, Christian A1 - Bauer, Christine A1 - Sträßner, Ulrike A1 - Tong Luna, Sarah A1 - Vorphal, Jan ED - Klose, Dagmar ED - Ladewig, Marco T1 - Die Herausbildung moderner Strukturen in Gesellschaft und Staat der Frühen Neuzeit N2 - Im Mittelpunkt des fünften Bandes der Reihe Perspektiven historischen Denkens und Lernens steht eine Epoche des Umbruchs und des Überganges, die Frühe Neuzeit. Traditionelle historische Begriffe werden auf den Prüfstand neuerer Forschungsansätze gestellt. Der französischen Revolution werden neue Aspekte beigefügt, wie die Mentalitätsgeschichte. Auch die Amerikanische Revolution nimmt einen gebührenden Platz ein. Ganz neue Facetten der Geschichte enthält das abschließende Kapitel zur Kulturgeschichte. N2 - In the centre of the fifth volume of the book series “Perspectives of Historical Thinking and Learning” we find an era of changes and upheaval, the early modern age. Traditional historic concepts are being analysed and based on current approaches of this field of research. New aspects are being added to the French Revolution, like the history of mentality. Also the American Revolution claims her due position. The final chapter presents us with some fully new facings of history. T3 - Perspektiven historischen Denkens und Lernens - 5 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-37707 SN - 978-3-86956-013-7 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Giest, Hartmut T1 - Reinventing Education – Web 2.0 Tools to foster Teacher Collaboration in Brandenburg ONLIFE : Online-Lehrerzusammenarbeit zur Förderung der Individualisierung des Lernens an Schulen N2 - Der vorliegende Band 23 der Reihe "LLF-Berichte" des Zentrums für Lehrerbildung der Universität Potsdam enthält eine Zusammenschau der Evaluation des Projektes Reinventing Education . Web 2.0 Tools to foster Teacher Collaboration in Brandenburg ONLIFE / Online-Lehrerzusammenarbeit zur Förderung der Individualisierung des Lernens an Schulen. Die Evaluation des Projektes umfasste den Zeitraum 2006-2008. Der vorliegende Band stellt die beiden Hauptphasen aus 2007 und 2008 ausführlich dar. Die Erkenntnisse dieses Projektes haben Modellcharakter für analoge Projekte in der Bundesrepublik und regen zu einem Erfahrungsaustausch zur online-gestützen Lehrerzusammenarbeit auf Bundesebene an. T3 - LLF-Berichte - 23 Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-39003 SN - 978-3-86956-027-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Wist, Dominic A1 - Schaefer, Mark A1 - Vogler, Walter A1 - Wollowski, Ralf T1 - STG decomposition : internal communication for SI implementability N2 - STG decomposition is a promising approach to tackle the complexity problems arising in logic synthesis of speed independent circuits, a robust asynchronous (i.e. clockless) circuit type. Unfortunately, STG decomposition can result in components that in isolation have irreducible CSC conflicts. Generalising earlier work, it is shown how to resolve such conflicts by introducing internal communication between the components via structural techniques only. N2 - STG-Dekomposition ist ein bewährter Ansatz zur Bewältigung der Komplexitätsprobleme bei der Logiksynthese von SI (speed independent) Schaltungen – ein robuster asynchroner (d.h. ohne Taktsignal arbeitender digitaler) Schaltungstyp. Allerdings können dabei Komponenten mit irreduziblen CSC-Konflikten entstehen. Durch Verallgemeinerung früherer Arbeiten wird gezeigt, wie solche Konflikte durch Einführung interner Kommunikation zwischen den Komponenten gelöst werden können, und zwar ausschließlich durch Verwendung an der Graphenstruktur ansetzender Verfahren. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 32 KW - Asynchrone Schaltung KW - Petrinetz KW - Signalflankengraph (SFG oder STG) KW - STG-Dekomposition KW - speed independent KW - CSC KW - Controller-Resynthese KW - Asynchronous circuit KW - petri net KW - signal transition graph KW - STG decomposition KW - speed independent KW - CSC KW - control resynthesis Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-40786 SN - 978-3-86956-037-3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK ED - Adams, Bram ED - Haupt, Michael ED - Lohmann, Daniel T1 - Proceedings of the 9th Workshop on Aspects, Components, and Patterns for Infrastructure Software (ACP4IS '10) N2 - Aspect-oriented programming, component models, and design patterns are modern and actively evolving techniques for improving the modularization of complex software. In particular, these techniques hold great promise for the development of "systems infrastructure" software, e.g., application servers, middleware, virtual machines, compilers, operating systems, and other software that provides general services for higher-level applications. The developers of infrastructure software are faced with increasing demands from application programmers needing higher-level support for application development. Meeting these demands requires careful use of software modularization techniques, since infrastructural concerns are notoriously hard to modularize. Aspects, components, and patterns provide very different means to deal with infrastructure software, but despite their differences, they have much in common. For instance, component models try to free the developer from the need to deal directly with services like security or transactions. These are primary examples of crosscutting concerns, and modularizing such concerns are the main target of aspect-oriented languages. Similarly, design patterns like Visitor and Interceptor facilitate the clean modularization of otherwise tangled concerns. Building on the ACP4IS meetings at AOSD 2002-2009, this workshop aims to provide a highly interactive forum for researchers and developers to discuss the application of and relationships between aspects, components, and patterns within modern infrastructure software. The goal is to put aspects, components, and patterns into a common reference frame and to build connections between the software engineering and systems communities. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 33 KW - Aspektorientierte Softwareentwicklung KW - Systemsoftware KW - Middleware KW - Virtuelle Maschinen KW - Betriebssysteme KW - systems software KW - middleware KW - virtual machines KW - operating systems Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41221 SN - 978-3-86956-043-4 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Lkhagvadorj, Ariunaa T1 - Fiscal federalism and decentralization in Mongolia N2 - Fiscal federalism has been an important topic among public finance theorists in the last four decades. There is a series of arguments that decentralization of governments enhances growth by improving allocation efficiency. However, the empirical studies have shown mixed results for industrialized and developing countries and some of them have demonstrated that there might be a threshold level of economic development below which decentralization is not effective. Developing and transition countries have developed a variety of forms of fiscal decentralization as a possible strategy to achieve effective and efficient governmental structures. A generalized principle of decentralization due to the country specific circumstances does not exist. Therefore, decentralization has taken place in different forms in various countries at different times, and even exactly the same extent of decentralization may have had different impacts under different conditions. The purpose of this study is to investigate the current state of the fiscal decentralization in Mongolia and to develop policy recommendations for the efficient and effective intergovernmental fiscal relations system for Mongolia. Within this perspective the analysis concentrates on the scope and structure of the public sector, the expenditure and revenue assignment as well as on the design of the intergovernmental transfer and sub-national borrowing. The study is based on data for twenty-one provinces and the capital city of Mongolia for the period from 2000 to 2009. As a former socialist country Mongolia has had a highly centralized governmental sector. The result of the analysis below revealed that the Mongolia has introduced a number of decentralization measures, which followed a top down approach and were slowly implemented without any integrated decentralization strategy in the last decade. As a result Mongolia became de-concentrated state with fiscal centralization. The revenue assignment is lacking a very important element, for instance significant revenue autonomy given to sub-national governments, which is vital for the efficient service delivery at the local level. According to the current assignments of the expenditure and revenue responsibilities most of the provinces are unable to provide a certain national standard of public goods supply. Hence, intergovernmental transfers from the central jurisdiction to the sub-national jurisdictions play an important role for the equalization of the vertical and horizontal imbalances in Mongolia. The critical problem associated with intergovernmental transfers is that there is not a stable, predictable and transparent system of transfer allocation. The amount of transfers to sub-national governments is determined largely by political decisions on ad hoc basis and disregards local differences in needs and fiscal capacity. Thus a fiscal equalization system based on the fiscal needs of the provinces should be implemented. The equalization transfers will at least partly offset the regional disparities in revenues and enable the sub-national governments to provide a national minimum standard of local public goods. N2 - Der Fiskalische Föderalismus ist in den letzten vier Dekaden eines der wichtigsten Themen der finanzwissenschaftlichen Theorie. Dabei wird häufig argumentiert, dass eine Dezentralisierung der öffentlichen Aufgaben nicht nur die Wachstumschancen eines Landes erhöhen kann, sondern darüber hinaus auch der Allokationseffizienz förderlich ist. Allerdings zeigen empirische Untersuchungen für die Industrie- und Entwicklungsländern keine einheitlichen Ergebnisse; es wird aber deutlich, dass es einen Schwellenwert in Bezug auf den Entwicklungsstand gibt, unterhalb dessen eine Dezentralisierung erst wirksam wird. So haben einige Entwicklungs- und Schwellenländer eine Vielzahl von Formen der steuerlichen Dezentralisierung als eine mögliche Strategie gewählt, um wirksame und effiziente dezentrale staatliche Strukturen zu entwickeln, wobei es einen allgemeinen Lösungsansatz hinsichtlich der Dezentralisierung allerdings nicht gibt. Vielmehr sind die besonderen kulturellen, wirtschaftlichen und geografischen Bedingungen des einzelnen Landes in angemessener Weise zu berücksichtigen. Die gefundenen Lösungen weisen daher eine relativ große Variationsbreite auf. Ziel dieser Studie ist es, den aktuellen Stand der steuerlichen Dezentralisierung in der Mongolei zu untersuchen und Empfehlungen für ein effizientes und effektives System der zwischenstaatlichen Finanzbeziehungen in der Mongolei zu entwickeln. Dabei konzentriert sich die Analyse auf Umfang und Struktur des öffentlichen Sektors, also die Aufgaben und Ausgaben sowie die öffentlichen Einnahmen. Außerdem wird auf die Zuordnung von Aufgaben und Einnahmen sowie auf die Gestaltung der zwischenstaatlichen Transfer und die subnationale Kreditaufnahme eingegangen. Die Studie basiert auf Daten der zwanzig Provinzen und der Hauptstadt der Mongolei für den Zeitraum 2000 bis 2009. Als ehemals sozialistisches Land verfügt die Mongolei über einen stark zentralisierten staatlichen Sektor. Aus der detaillierten Analyse folgt, dass die Mongolei eine Reihe von Maßnahmen zur Neustrukturierung der gebietskörperschaftlichen Ebenen ohne eine klare Dezentralisierungsstrategie durchgesetzt hat, die einen Top-Down-Ansatz verfolgten. Im Ergebnis wurde die Mongolei zu einem Staat mit einer starken Konzentration des Steueraufkommens auf der zentralstaatlichen Ebene. Dabei fehlt der Einnahmenzuordnung vor allem ein sehr wichtiges Element, nämlich eine Einnahmenautonomie auf der Ebene der untergeordneten Gebietskörperschaften, welche zum einen die Aufkommenssituation der lokalen und regionalen Gebietskörperschaften verbessert und ihnen damit erst eine eigenständige Aufgabenerfüllung ermöglicht. Bei der derzeitigen Aufgaben- und Steuerverteilung sind die meisten Provinzen nicht in der Lage, einen bestimmten nationalen Mindeststandard an öffentlichen Güter und Dienstleistungen bereitzustellen. Die Staatstätigkeit auf den untergeordneten Ebenen folgt überwiegend der Auftragsverwaltung und wird folglich im Wesentlichen über Finanzhilfen des Zentralstaats finanziert. Das entscheidende Problem der zwischenstaatlichen Transfers liegt darin begründet, dass es für die zentralstaatlichen Finanzhilfen an die untergeordneten Gebietskörperschaften kein stabiles, berechenbares und transparentes System der Steuerverteilung gibt. Die Höhe der Transferzahlungen an die sub-nationalen Regierungen ist weitgehend von politischen ad hoc Entscheidungen abhängig, welche in der Regel die lokalen und regionalen Finanzbedarfe missachten. Damit werden die Unterschiede zwischen Finanzbedarf und Finanzkraft auf der Ebene der untergeordneten Gebietskörperschaften nicht angemessen ausgeglichen. Es wird daher eine formelbasierte Steuerverteilung vorgeschlagen, welche die starken Schwankungen der Transferhöhe im Zeitverlauf vermeidet und die es den untergeordneten Gebietskörperschaften ermöglicht, einen vorgegebenen Mindeststandard an öffentlichen Gütern und Dienstleistungen ihren Bürgerinnen und Bürgern auch anbieten zu können. T2 - Fiskalischer Föderalismus und Dezentralisierung in der Mongolei KW - Fiskalischer Föderalismus KW - Dezentralisierung KW - Einnahmenautonomie KW - Aufgabenerfüllung KW - Finanzzuweisungen KW - Fiscal Federalism KW - Decentralization KW - Revenue Autonomy KW - Expenditure Assignment KW - Intergovernmental transfers Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41768 SN - 978-3-86956-053-3 PB - Universitätsverlag Potsdam CY - Potsdam ER -