4707
2010
2010
deu
105
conferenceobject
Universitätsverlag Potsdam
Potsdam
1
2010-12-09
--
--
HDI2010 – Tagungsband der 4. Fachtagung zur "Hochschuldidaktik Informatik"
Mit der 4. Tagung zur Hochschuldidaktik Informatik wird eine Reihe fortgesetzt, die ihren Anfang 1998 in Stuttgart unter der Überschrift „Informatik und Ausbildung“ genommen hat. Seither dienen diese Tagungen den Lehrenden im Bereich der Hochschulinformatik als Forum der Information und des Diskurses über aktuelle didaktische und bildungspolitische Entwicklungen im Bereich der Informatikausbildung. Aktuell zählen dazu insbesondere Fragen der Bildungsrelevanz informatischer Inhalte und der Herausforderung durch eine stärkere Kompetenzorientierung in der Informatik. Die eingereichten Beiträge zur HDI 2010 in Paderborn veranschaulichen unterschiedliche Bemühungen, sich mit relevanten Problemen der Informatikdidaktik an Hochschulen in Deutschland (und z. T. auch im Ausland) auseinanderzusetzen. Aus der Breite des Spektrums der Einreichungen ergaben sich zugleich Probleme bei der Begutachtung. Letztlich konnten von den zahlreichen Einreichungen nur drei die Gutachter so überzeugen, dass sie uneingeschränkt in ihrer Langfassung akzeptiert wurden. Neun weitere Einreichungen waren trotz Kritik überwiegend positiv begutachtet worden, so dass wir diese als Kurzfassung bzw. Diskussionspapier in die Tagung aufgenommen haben.
urn:nbn:de:kobv:517-opus-49167
4916
978-3-86956-100-4
<hr/>In Printform erschienen im <a href="http://info.ub.uni-potsdam.de/verlag.htm">Universitätsverlag Potsdam</a>:<br/><br/> HDI2010 - Tagungsband der 4. Fachtagung zur "Hochschuldidaktik Informatik" / Dieter Engbring ; Reinhard Keil ; Johannes Magenheim ; Harald Selke (Hrsg.). - Potsdam : Universitätsverlag Potsdam, 2011. - 105 S. : Ill., graph. Darst.<br/>(Commentarii informaticae didacticae : CID ; 4)<br/>ISBN 978-3-86956-100-4<br/>--> <a href="http://info.ub.uni-potsdam.de/cgi-bin/publika/view.pl?id=606">bestellen</a><hr/>
SR 910
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Arno Rolf
Marc Berges
Peter Hubwieser
Timo Kehrer
Udo Kelter
Ralf Romeike
Marcus Frenkel
Weicker Karsten
Wolfgang Reinhardt
Michael Mascher
Senol Gül
Johannes Magenheim
Stephan Raimer
Ira Diethelm
Malte Dünnebier
Kiss Gabor
Boll Susanne
Meinhardt Rolf
Sabine Gronewold
Larissa Krekeler
Isa Jahnke
Tobias Haertel
Volker Mattick
Karsten Lettow
Jörg Hafer
Joachim Ludwig
Marlen Schumann
Christoph Laroque
Jonas Schulte
Diana Urban
Commentarii informaticae didacticae (CID)
4
Datenverarbeitung; Informatik
open_access
Commentarii informaticae didacticae (CID)
Institut für Informatik und Computational Science
Universitätsverlag Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4707/hdi2010.pdf
4019
2010
deu
49
book
Universitätsvverlag Potsdam
Potsdam
1
2010-04-16
--
--
Die Zapatistas in Mexiko : der antisystemische und antietatistische Charakter einer populären Bewegung
Wie kaum eine andere soziale Bewegung der letzten 25 Jahre erfuhren die Zapatisten eine weltweite, breite Rezeption. Von der medialen Präsenz der 1990er Jahre ist jedoch nicht viel übrig geblieben. Um die mexikanischen Guerillas ist es ruhig geworden. Wurden die Zapatistas vom Zeitgeist überholt? Verloren ihre postneoliberalen Ansätze durch den Wandel der Bewegung an Attraktivität? Das Papier geht den Ursprüngen der indigenen Aufstandsbewegung und deren Paradigmenwechsel nach und zeigt auf, wie trotz des neu eingeschlagenen Weges der antisystemische und antietatistische Charakter der Bewegung beibehalten wurde.
urn:nbn:de:kobv:517-opus-41296
4129
978-3-86956-046-5
<hr/>In Printform erschienen im <a href="http://info.ub.uni-potsdam.de/verlag.htm">Universitätsverlag Potsdam</a>:<br/><br/> Zimmering, Raina: Die Zapatistas in Mexiko : der antisystemische und antietatistische Charakter einer populären Bewegung / Rainer Zimmering. - Potsdam : Universitätsverlag Potsdam, 2010. - 49 S.<br/>(WeltTrends-Papiere ; 13)<br/>ISSN 1864-0656<br/>ISBN 978-3-86956-046-5<br/>--> <a href="http://info.ub.uni-potsdam.de/cgi-bin/publika/view.pl?id=544">bestellen</a>
MB 1100
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Raina Zimmering
WeltTrends Papiere
13
deu
uncontrolled
Zapatisten
deu
uncontrolled
Mexiko
deu
uncontrolled
Neoliberalismus
Politikwissenschaft
open_access
WeltTrends Papiere
Welttrends Papiere (2010) 13
WeltTrends e.V. Potsdam
Universitätsverlag Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4019/wtp13.pdf
3995
2010
eng
doctoralthesis
1
2010-03-17
--
2010-03-03
Coupling of the electrical, mechanical and optical response in polymer/liquid-crystal composites
Kopplung von elektrischen, mechanischen und optischen Effekten in einem Polymer/Flüssigkristall-Komposit
Micrometer-sized liquid-crystal (LC) droplets embedded in a polymer matrix may enable optical switching in the composite film through the alignment of the LC director along an external electric field. When a ferroelectric material is used as host polymer, the electric field generated by the piezoelectric effect can orient the director of the LC under an applied mechanical stress, making these materials interesting candidates for piezo-optical devices. In this work, polymer-dispersed liquid crystals (PDLCs) are prepared from poly(vinylidene fluoride-trifluoroethylene) (P(VDF-TrFE)) and a nematic liquid crystal (LC). The anchoring effect is studied by means of dielectric relaxation spectroscopy. Two dispersion regions are observed in the dielectric spectra of the pure P(VDF-TrFE) film. They are related to the glass transition and to a charge-carrier relaxation, respectively. In PDLC films containing 10 and 60 wt% LC, an additional, bias-field-dependent relaxation peak is found that can be attributed to the motion of LC molecules. Due to the anchoring effect of the LC molecules, this relaxation process is slowed down considerably, when compared with the related process in the pure LC. The electro-optical and piezo-optical behavior of PDLC films containing 10 and 60 wt% LCs is investigated. In addition to the refractive-index mismatch between the polymer matrix and the LC molecules, the interaction between the polymer dipoles and the LC molecules at the droplet interface influences the light-scattering behavior of the PDLC films. For the first time, it was shown that the electric field generated by the application of a mechanical stress may lead to changes in the transmittance of a PDLC film. Such a piezo-optical PDLC material may be useful e.g. in sensing and visualization applications. Compared to a non-polar matrix polymer, the polar matrix polymer exhibits a strong interaction with the LC molecules at the polymer/LC interface which affects the electro-optical effect of the PDLC films and prevents a larger increase in optical transmission.
Mikrometer-große, in eine Polymermatrix eingebettete Flüssigkristall-Tröpfchen können als elektro-optische Lichtventile fungieren, da die Ausrichtung der Flüssigkristalle durch ein externes elektrisches Feld verändert werden kann. Wird nun ein ferroelektrisches Polymer als Matrix verwendet, so kann das durch den piezoelektrischen Effekt erzeugte und von der äußeren mechanischen Spannung abhängige elektrische Feld den Flüssigkristall ausrichten. Solche Materialien können daher als piezo-optische Lichtventile eingesetzt werden. Im Rahmen dieser Arbeit wurden PDLCs (polymer-dispersed liquid crystals) durch Einbettung von nematischen Flüssigkristallen in Poly(Vinylidenefluoride-Trifluorethylene) (P(VDF-TrFE)) erzeugt. Die Wechselwirkungen an der Grenzfläche zwischen Flüssigkristall und Polymer wurden mittels dielektrischer Spektroskopie untersucht. Im dielektrischen Spektrum des reinen P(VDF-TrFE) wurden zwei Dispersions-Regionen beobachtet, welche vom Glasübergang und einer Ladungsträgerrelaxation des Polymers herrühren. PDLC Folien mit unterschiedlichen Anteilen von Flüssigkristall-Tröpfchen (10 bzw. 60 Gewichtsprozente) zeigten beim Anlegen eines elektrischen Wechselfelds zusatzliche Relaxationseffekte, welche der Bewegung der eingebetteten Flüssigkristall-Moleküle zugeordnet werden konnten. Durch die Einlagerung der Flüssigkristall-Moleküle weist die Struktur eine Relaxation auf, die gegenüber vergleichbaren Prozessen im reinen Flüssigkristall deutlich verlangsamt ist. Des weiteren wurde das elektrooptische und piezo-optische Verhalten der mit 10 und 60 Gewichtsprozent Flüssigkristall geladenen Folien untersucht. Die Lichtstreuung hängt dabei ab von der Fehlanpassung der Brechungsindizes von Polymermatrix und Flüssigkristallen sowie von den Wechselwirkungen der Polymerdipole mit den Flüssigkristall-Molekülen an der Tröpfchenoberfläche. Es konnte erstmalig gezeigt werden, dass die Lichtdurchlässigkeit der PDLC-Folien durch eine externe mechanische Spannung gesteuert werden kann. Dieser Effekt macht das piezo-optische PDLC-Material für die Verwendung in Optik- und Sensoranwendungen interessant. Im Vergleich mit unpolaren Wirtspolymeren zeigen polare Wirtsmaterialien eine deutlich stärkere Wechselwirkung zwischen den Flüssigkristall-Molekülen an der Polymer/Flüssigkristall-Grenzfläche, welche den elektrooptischen Effekt beeinflusst und so die maximale transmissions änderung reduziert.
urn:nbn:de:kobv:517-opus-41572
4157
UV 3100
UQ 8700
VE 9550
ZM 7080
lakshmimeena2000@gmail.com | meena@uni-potsdam.de
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Lakshmi Meena Ganesan
deu
uncontrolled
PDLC
deu
uncontrolled
P(VDF-TrFE)
deu
uncontrolled
nematic LC
deu
uncontrolled
piezo-optisch
deu
uncontrolled
elektro-optisch
eng
uncontrolled
PDLC
eng
uncontrolled
P(VDF-TrFE)
eng
uncontrolled
nematic LC
eng
uncontrolled
piezo-optical
eng
uncontrolled
electro-optical
Physik
open_access
Institut für Physik und Astronomie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/3995/ganesan_diss.pdf
5020
2010
deu
masterthesis
1
2011-05-06
--
--
Personalmarketing in der öffentlichen Verwaltung : Analyse und Implikationen eines Best Practice-Ansatzes
Attracting talents for the public sector : analysis and implications of a best practice approach
In den vergangenen Jahren gewannen in der Personalwirtschaft Begriffe wie War for Talent und Fachkräftemangel immer mehr an Bedeutung. Unternehmen der Privatwirtschaft betreiben daher gezielt Personalmarketing - öffentliche Verwaltungen bisher kaum. Obwohl die Kombination aus einer überalterten Belegschaft, sinkenden Schulabsolventenzahlen und einem weitgehend unattraktiven Arbeitgeberimage insbesondere für öffentliche Verwaltungen die Gefahr eines eklatanten Mangels qualifizierter Nachwuchskräfte birgt. Die vorliegende Arbeit geht der Frage nach wie Personalmarketing in öffentlichen Verwaltungen bereits erfolgreich betrieben wird und welche Erfolgsfaktoren sich daraus für den Einsatz in anderen Verwaltungen ableiten lassen. Mit Hilfe der Analyse eines Best Practice-Ansatzes und auf der Basis der für die Privatwirtschaft bereits identifizierten Erfolgsfaktoren werden diese für den erfolgreichen Einsatz von Personalmarketing in der öffentlichen Verwaltung herausgearbeitet. Der Fokus des Praxisbeispiels liegt dabei auf der Rekrutierung von Nachwuchskräften für den mittleren und gehobenen allgemeinen nicht-technischen Verwaltungsdienst. Als Best Practice-Beispiel dient das Ausbildungsmarketing der Freien und Hansestadt Hamburg. Im Ergebnis decken sich die grundsätzlichen Erfolgsfaktoren mit denen der Privatwirtschaft. Dazu gehören u. a. das Vorhandensein eines strategischen Konzepts, die Formulierung klarer und messbarer Ziele sowie das systematische Überprüfen der Effektivität und Effizienz des Personalmarketing sowie einzelner Instrumente. Für öffentliche Verwaltungen ist es zudem besonders wichtig das Arbeitgeberimage zu verbessern. Dies sollte bei der Ansprache von Nachwuchskräften mit Hilfe moderner Medien, durch Einblicke in Verwaltungsaufgaben und die Einbindung von Eltern und Schulen geschehen.
Within the last years keywords as war for talents and skills shortage constantly gained in importance. That is why private sector entities take actions to attract talents - meanwhile public sector entities hardly do so. Even though the combination of an over aged workforce, the decline of school graduates and their widely unattractive employer image carry the danger of a striking deficit of young talents for public sector entities. The following thesis therefore tries to answer the question how public sector entities already attract talents successfully and which critical success factors can be deduced from that. By the analysis of a best practice approach and based on the factors of success identified for the private sector the thesis develops the critical success factors for the attraction of talents for the public sector. The best practice approach is focused on the recruitment of school graduates for the apprenticeships of the public sector in Germany. It presents the activities of the city of Hamburg. The critical success factors basically comply with those identified for the private sector. That includes amongst others the existence of a strategic concept, the formulation of explicit and measurable goals and the systematic testing of the effectiveness and efficiency of both the attraction program in general and every single instrument. For public sector entities in addition it is indispensible to improve their employer image. When attracting young talents this should be done by the use of modern media, by providing an insight into public sector tasks and by involving parents and schools.
urn:nbn:de:kobv:517-opus-51652
5165
MF 7350
QQ 000
QR 400
Maja Rackow
Schriftenreihe für Public und Nonprofit Management
5
deu
uncontrolled
Personalmarketing
deu
uncontrolled
Verwaltung
deu
uncontrolled
Nachwuchskräfte
deu
uncontrolled
Erfolgsfaktoren
eng
uncontrolled
Recruiting
eng
uncontrolled
Public Sector
Öffentliche Verwaltung, Militärwissenschaft
open_access
Wirtschaftswissenschaften
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/5020/spnm05.pdf
5040
2010
deu
book
1
2011-05-16
--
--
Europa als Inspiration und Herausforderung : sozialwissenschaftliche Sichten aus Deutschland und Polen
Die Integration Europas bleibt für die Sozialwissenschaften eine Quelle der Inspiration und Herausforderung. Auch 53 Jahre nach Unterzeichnung der Römischen Verträge ist der Kontinent weiter in Bewegung, geht es um die Vision seiner zukünftigen Gestalt ebenso wie um die Regelung vielfältigster Tagesprobleme. Um zu dieser Debatte einen spezifischen Beitrag zu leisten, fand im Juni 2010 an der Universität Potsdam eine deutsch-polnische Konferenz zum Thema „Europa als Inspiration und Herausforderung aus sozialwissenschaftlicher Sicht“ statt. Dabei wurden unterschiedliche Ansätze der europawissenschaftlichen Forschungen in den beteiligten Einrichtungen (z. B. aus der Sicht von Politologen, Soziologen, Historikern oder Kulturwissenschaftlern) präsentiert. Zugleich diente die Konferenz dazu, das wissenschaftliche Forschungsinteresse am „nahen Osten“ wieder zu stärken.
urn:nbn:de:kobv:517-opus-48170
4817
978-3-86956-095-3
<hr/>In Printform erschienen im <a href="http://info.ub.uni-potsdam.de/verlag.htm">Universitätsverlag Potsdam</a>:<br/><br/> Europa als Inspiration und Herausforderung : sozialwissenschaftliche Sichten aus Deutschland und Polen / Jochen Franzke [Hrsg.]. - Potsdam: Universitätsverlag, 2011. - 272 S. : graph. Darst.<br/>(WeltTrends-Papiere ; 15)<br/>ISSN 1864-0656<br/>ISBN 978-3-86956-095-3 <br/>→ <a href="http://info.ub.uni-potsdam.de/cgi-bin/publika/view.pl?id=625">bestellen</a>
MB 1100
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
WeltTrends Papiere
15
deu
uncontrolled
Polen
deu
uncontrolled
Europäische Union
deu
uncontrolled
Deutschland
deu
uncontrolled
Integration
deu
uncontrolled
Vertiefung
eng
uncontrolled
Poland
eng
uncontrolled
European Union
eng
uncontrolled
Germany
eng
uncontrolled
Integration
eng
uncontrolled
Consolidation
Politikwissenschaft
open_access
WeltTrends Papiere
Welttrends Papiere (2010) 15
WeltTrends e.V. Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/5040/wtp15.pdf
4946
2010
deu
doctoralthesis
1
2011-04-11
--
2011-03-22
Sulforaphan und Selen : Einfluss auf Phase II Enzyme und Selenoproteine sowie deren Effekt auf die entzündungsvermittelte Dickdarmkanzerogenese
Sulforaphane and Selenium : impact on phase II enzymes and selenoproteins, and the effect on the inflammation triggered colon carcinogenesis
Das ITC SFN und der Mikronährstoff Se sind bekannt als chemopräventive Inhaltsstoffe von Gemüse der Brassica-Familie, welcher auch Brokkoli angehört. Die Wirkungen von sowohl SFN als auch Se beruhen auf zahlreichen verschiedenen Mechanismen. Es existieren jedoch Schnittstellen, an welchen Interaktionen beider Substanzen möglich sind. Basierend auf diesem Wissen wurden in dieser Arbeit Wechselwirkungen zwischen SFN und Se auf die Aktivität sowie Expression von Phase II Enzymen und Selenoproteinen untersucht. Der Einfluss der Kombination von SFN und Se auf die unter physiologischen Bedingungen stattfindende Proliferation und Apoptose war ebenso Gegenstand der Arbeit wie die Modulation von Entzündungsprozessen sowie der Tumorentstehung während der entzündungsverstärkten Colonkanzerogenese im Mausmodell. Das hinsichtlich seiner Wirksamkeit mit aus GRA hydrolysiertem SFN zunächst als vergleichbar befundene synthetische SFN wurde für die Untersuchung im AOM/DSS-induzierten Colontumormodell gewählt und in Kombination mit 3 verschiedenen Selendiäten verabreicht. Der Einfluss von SFN und Se auf Phase II Enzyme und Selenoproteine entlang des GIT war organabhängig und nach 4 Wochen geringer als nach 7 Tagen. Die schwächere Induktion deutet auf eine Anpassung des Organismus hin. Ein SFN-vermittelter Effekt auf NQO1 war im Selenmangel am deutlichsten. Die Aktivität des Selenoproteins TrxR wurde hingegen erst bei ausreichender Selenversorgung durch SFN beeinflusst. Die als Nrf2-Zielgen bekannte und in der Hierarchie der Selenoproteine einen hohen Rang einnehmende GPx2 konnte in bestimmten Organen bereits unter selenarmen Bedingungen durch SFN induziert werden. Eine Überexpression des Enzyms war jedoch nicht möglich. SFN steigerte, unabhängig vom Selenstatus, im oberen Abschnitt des GIT und im Colon die Aktivität der GST. Eine Induktion des eigenen Metabolismus wäre somit denkbar. Im Falle eines Mangels an GPx2 wurde GPx1 bei hinreichender Selenversorgung stärker exprimiert, allerdings konnte sie die Funktion von GPx2 nicht völlig erset-zen. Im Selenmangel kann die Aktivitätssteigerung der TrxR im Dünndarm, dem Ab-schnitt der Selenabsorption, als ein Versuch der GPx2-Kompensation angesehen werden. SFN war nicht in der Lage, über eine Aktivierung des Nrf2/ARE-Signalweges kompensatorische Effekte zu induzieren. Apoptotische Prozesse wurden unter physiologischen Bedingungen nur marginal durch SFN und Se moduliert. Das elektrophile ITC konnte lediglich im Selenmangel Apoptose im luminalen Bereich der Colonkrypten induzieren. Die durch supranutritive Selenkonzentration induzierte Apoptose im Kryptengrund wurde nicht durch SFN beeinflusst. Einer bei Abwesenheit der GPx2 erhöhten Apoptoserate im Kryptengrund wirkte SFN bei adäquater Selenversorgung entgegen, war indessen proapoptotisch unter selendefizienten Konditionen. Der Einfluss von SFN auf die Entzündung war deutlich abhängig vom Selenstatus. Während SFN im Selenmangel anscheinend prooxidative Prozesse induzierte und die Entzündungssymptome verschlimmerte, wirkte es unter adäquatem Selenstatus an-tiinflammatorisch. Den vergleichsweise milden Grad der Entzündung im selensupplementierten Status konnte SFN nicht zusätzlich beeinflussen. SFN veränderte die Inzi-denz colorektaler Tumore nicht. Ein, die Tumorinitiation blockierender SFN-Effekt durch direkte Hemmung der metabolischen Aktivierung des Prokanzerogens im selenadäquaten Zustand scheint offensichtlich. Eine Überversorgung mit Se kann protektiv im Hinblick auf Entzündung oder Colonkanzerogenese sein, jedoch bewirkt SFN keinen zusätzlichen Schutz. Kombinationseffekte von SFN und Se in Bezug auf Phase II Enzyme, Selenoproteine und Apoptose sowie die entzündungsverstärkte Colonkanzerogenese sind nicht eindeutiger Natur und können, abhängig vom Endpunkt, synergistische oder antagonistische Züge aufweisen. Eine bei Selendefizienz deutlichere Wirkung von SFN kann mit Hilfe der gesteigerten Aktivierung von Nrf2 erklärt werden, dies muss jedoch nicht von Vorteil sein. Bei adäquater Selenversorgung kann SFN kurzfristig antiinflammatorische und antikanzerogene Prozesse induzieren. Von einer längerfristigen ständigen SFN-Aufnahme in Form von GRA-reichen Brassicacea ist jedoch abzuraten, da von einer Adaptation auszugehen ist. Die Wirkung von SFN innerhalb der komplexen Pflanzenmatrix bleibt Gegenstand zukünftiger Untersuchungen.
Sulforaphane (SFN), a versatile actor derived from broccoli or other brassicaceae, is proposed to be a dietary anticarcinogen. Together with an adequate selenium status, it has been associated with a decreased risk for developing certain forms of cancer. In our mouse model, we investigate the influence of SFN and Se on the expression and activity of selenoproteins and phase II enzymes as well as the effects on inflammation triggered colon carcinogenesis. SFN increased NQO1 activity and protein expression significantly in the ileum, in both, Se-deficiently and Se-adequately fed animals. TrxR activity was increased in Se-adequately compared to Se-deficiently fed mice, SFN positively affected TrxR activity only in the former ones. An increase of GPx2 protein expression by SFN was observed in the ileum of mice of both diets. GPx1 reacts sensitively on Se supply. GST was the only enzyme analyzed being significantly increased by SFN on activity level in the colon. All AOM/DSS treated animals showed an inflammation, which was attenuated by SFN within Se-adequacy. In contrast, Se-deficient animals showed a more severe inflammation. The administration of SFN therefore seemed to enhance this even more and to be not beneficial in this case. SFN inhibited colon carcinogenesis in Se-adequate mice when being administered together with AOM. To summarize, both, GPx2 and TrxR, require selenium in order to be synthesized. In contrast to TrxR, the SFN-mediated induction of GPx2, the highest ranking selenoprotein, does not depend on additional selenium supply. Whereas distinct effects by SFN were observed in the ileum, only GST was influenced by SFN in the colon. SFN seems to induce its own metabolism. In conclusion, SFN and Se attenuate inflammation and colon carcinogenesis, preferably by means of up-regulating the endogenous defense system and inhibiting the metabolic activation of AOM.
urn:nbn:de:kobv:517-opus-51862
5186
XH 4156
WX 2500
Maria Löwinger
deu
uncontrolled
Sulforaphan
deu
uncontrolled
Selen
deu
uncontrolled
Dickdarmkanzerogenese
deu
uncontrolled
Phase II Enzyme
deu
uncontrolled
Selenoproteine
eng
uncontrolled
sulforaphane
eng
uncontrolled
selenium
eng
uncontrolled
colon carcinogenesis
eng
uncontrolled
phase II enzymes
eng
uncontrolled
selenoproteins
Biowissenschaften; Biologie
open_access
Institut für Ernährungswissenschaft
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4946/loewinger_diss.pdf
4750
2010
eng
doctoralthesis
1
2011-01-20
--
2010-12-15
Synthesis, characterization, and biological evaluation of gelatin-based scaffolds
Synthese, Charakterisierung und biologische Evaluierung Gelatine-basierter Scaffolds
This work presents the development of entropy-elastic gelatin based networks in the form of films or scaffolds. The materials have good prospects for biomedical applications, especially in the context of bone regeneration. Entropy-elastic gelatin based hydrogel films with varying crosslinking densities were prepared with tailored mechanical properties. Gelatin was covalently crosslinked above its sol gel transition, which suppressed the gelatin chain helicity. Hexamethylene diisocyanate (HDI) or ethyl ester lysine diisocyanate (LDI) were applied as chemical crosslinkers, and the reaction was conducted either in dimethyl sulfoxide (DMSO) or water. Amorphous films were prepared as measured by Wide Angle X-ray Scattering (WAXS), with tailorable degrees of swelling (Q: 300-800 vol. %) and wet state Young’s modulus (E: 70 740 kPa). Model reactions showed that the crosslinking reaction resulted in a combination of direct crosslinks (3-13 mol.-%), grafting (5-40 mol.-%), and blending of oligoureas (16-67 mol.-%). The knowledge gained with this bulk material was transferred to the integrated process of foaming and crosslinking to obtain porous 3-D gelatin-based scaffolds. For this purpose, a gelatin solution was foamed in the presence of a surfactant, Saponin, and the resulting foam was fixed by chemical crosslinking with a diisocyanate. The amorphous crosslinked scaffolds were synthesized with varied gelatin and HDI concentrations, and analyzed in the dry state by micro computed tomography (µCT, porosity: 65±11–73±14 vol.-%), and scanning electron microscopy (SEM, pore size: 117±28–166±32 µm). Subsequently, the work focused on the characterization of the gelatin scaffolds in conditions relevant to biomedical applications. Scaffolds showed high water uptake (H: 630-1680 wt.-%) with minimal changes in outer dimension. Since a decreased scaffold pore size (115±47–130±49 µm) was revealed using confocal laser scanning microscopy (CLSM) upon wetting, the form stability could be explained. Shape recoverability was observed after removal of stress when compressing wet scaffolds, while dry scaffolds maintained the compressed shape. This was explained by a reduction of the glass transition temperature upon equilibration with water (dynamic mechanical analysis at varied temperature (DMTA)). The composition dependent compression moduli (Ec: 10 50 kPa) were comparable to the bulk micromechanical Young’s moduli, which were measured by atomic force microscopy (AFM). The hydrolytic degradation profile could be adjusted, and a controlled decrease of mechanical properties was observed. Partially-degraded scaffolds displayed an increase of pore size. This was likely due to the pore wall disintegration during degradation, which caused the pores to merge. The scaffold cytotoxicity and immunologic responses were analyzed. The porous scaffolds enabled proliferation of human dermal fibroblasts within the implants (up to 90 µm depth). Furthermore, indirect eluate tests were carried out with L929 cells to quantify the material cytotoxic response. Here, the effect of the sterilization method (Ethylene oxide sterilization), crosslinker, and surfactant were analyzed. Fully cytocompatible scaffolds were obtained by using LDI as crosslinker and PEO40 PPO20-PEO40 as surfactant. These investigations were accompanied by a study of the endotoxin material contamination. The formation of medical-grade materials was successfully obtained (<0.5 EU/mL) by using low-endotoxin gelatin and performing all synthetic steps in a laminar flow hood.
Diese Arbeit beschreibt die Entwicklung Entropie-elastischer Gelatine-basierter Netzwerke als Filme und Scaffolds. Mögliche Anwendungen für die entwickelten Materialien liegen im biomedizinischen Bereich, insbesondere der Knochenregeneration. Im ersten Schritt der Arbeit wurden Entropie-elastische, Gelatine-basierte Hydrogel-Filme entwickelt, deren mechanische Eigenschaften durch die Veränderung der Quervernetzungsdichte eingestellt werden konnten. Dazu wurde Gelatine in Lösung oberhalb der Gel-Sol-Übergangstemperatur kovalent quervernetzt, wodurch die Ausbildung helikaler Konformationen unterdrückt wurde. Als Quervernetzer wurden Hexamethylendiisocyanat (HDI) oder Lysindiisocyanat ethylester (LDI) verwendet, und die Reaktionen wurden in Dimethylsulfoxid (DMSO) oder Wasser durchgeführt. Weitwinkel Röntgenstreuungs Spektroskopie (WAXS) zeigte, dass die Netzwerke amorph waren. Der Quellungsgrad (Q: 300-800 vol. %) und der Elastizitätsmodul (E: 70 740 kPa) konnten dabei durch die systematische Veränderung der Quervernetzungsdichte eingestellt werden. Die Analyse der Quervernetzungsreaktion durch Modellreaktionen zeigte, dass die Stabilisierung der Hydrogele sowohl auf kovalente Quervernetzungen (3-13 mol.-%) als auch auf Grafting von (5-40 mol.-%) und Verblendung mit Oligoharnstoffen (16-67 mol.-%) zurückgeführt werden kann. Die Erkenntnisse aus dem Umgang mit dem Bulk-Material wurden dann auf einen integrierten Prozess der Verschäumung und chemischen Quervernetzung transferiert, so dass poröse, dreidimensionale Scaffolds erhalten wurden. Dafür wurde eine wässrige Gelatinelösung in Gegenwart eines Tensids, Saponin, verschäumt, und durch chemische Quervernetzung mit einem Diisocyanat zu einem Scaffold fixiert. Die Scaffolds hergestellt mit unterschiedlichen Mengen HDI und Gelatine, wurden im trockenen Zustand mittels Mikro Computertomographie (µCT, Porosität: 65±11–73±14 vol.-%) und Rasterelektronenmikroskopie (SEM, Porengröße: 117±28–166±32) charakterisiert. Anschließend wurden die Scaffolds unter Bedingungen charakterisiert, die für biomedizinische Anwendungen relevant sind. Die Scaffolds nahmen große Mengen Wasser auf (H: 630 1680 wt.-%) bei nur minimalen Änderungen der äußeren Dimensionen. Konfokale Laser Scanning Mikroskopie zeigte, dass die Wasseraufnahme zu einer verminderten Porengröße führte (115±47–130±49 µm), wodurch die Formstabilität erklärbar ist. Eine Formrückstellung der Scaffolds wurde beobachtet, wenn Scaffolds im nassen Zustand komprimiert wurden und dann entlastet wurden, während trockene Proben in der komprimierten Formen blieben (kalte Deformation). Dieses Entropie-elastische Verhalten der nassen Scaffolds konnte durch die Verminderung der Glasübergangstemperatur des Netzwerks nach Wasseraufnahme erklärt werden (DMTA). Die zusammensetzungsabhängigen Kompressionsmoduli (Ec: 10 50 kPa) waren mit den mikromechanischen Young’s moduli vergleichbar, die mittels Rasterkraftmikroskopie (AFM) gemessen wurden. Das hydrolytische Degradationsprofil konnte variiert werden, und während des Abbaus kam es nur zu kontrolliert-graduellen Änderungen der mechanischen Eigenschaften. Während der Degradation konnte ein Anstieg der mittleren Porengröße beobachtet werden, was durch das Verschmelzen von Poren durch den Abbau der Wände erklärt werden kann. Die Endotoxinbelastung und die Zytotoxizität der Scaffolds wurden untersucht. Humane Haut-Fibroblasten wuchsen auf und innerhalb der Scaffolds (bis zu einer Tiefe von 90 µm). Indirekte Eluat-Tests mit L929 Mausfibroblasten wurden genutzt, um die Zytotoxizität der Materialien, insbesondere den Einfluss des Quervernetzertyps und des Tensids, zu bestimmen. Vollständig biokompatible Materialien wurden erzielt, wenn LDI als Quervernetzer und PEO40 PPO20-PEO40 als Tensid verwendet wurden. Durch den Einsatz von Gelatine mit geringem Endotoxin-Gehalt, und die Synthese in einer Sterilarbeitsblank konnten Materialien für medizinische Anwendungen (Endotoxin-Gehalt < 0.5 EU/mL) hergestellt werden.
urn:nbn:de:kobv:517-opus-49727
4972
YI 3261
Giuseppe Tronci
deu
uncontrolled
Hydrogele
deu
uncontrolled
Polymer-Netzwerke
deu
uncontrolled
Gelatine
deu
uncontrolled
poröse Gerüste
deu
uncontrolled
Abbau
deu
uncontrolled
regenerative Medizin
eng
uncontrolled
hydrogels
eng
uncontrolled
polymer networks
eng
uncontrolled
gelatin
eng
uncontrolled
porous scaffolds
eng
uncontrolled
degradation
eng
uncontrolled
regenerative medicine
Biowissenschaften; Biologie
open_access
Institut für Biochemie und Biologie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4750/tronci_diss.pdf
4360
2010
deu
book
1
2010-07-26
--
--
Kennen Sie Randegg? : Martin Walsers "Das Gespenst von Gattnau" und die Tendenz zur Versöhnung
Do you know Randegg? : Martin Walsers "Das Gespenst von Gattnau" and the tendency of conciliation
Seit seiner berühmt-berüchtigten Friedenspreisrede von 1998 nimmt die Anzahl der literaturwissenschaftlichen und -politischen Publikationen, die Martin Walsers Werk eine nationalistische und antisemitische Tendenz unterstellen, zu. Bisweilen wird Walser unterstellt, er suche über die Ausschließung des Jüdischen das Nationale zu stärken und behaupte die Unversöhnlichkeit von Tätergemeinschaft und Opfergemeinschaft nach 1945. Das bislang in der Forschung wenig beachtete Hörspiel "Das Gespenst von Gattnau" lässt die Annahme einer anderen Tendenz zu: die Tendenz zur Versöhnung.
Since his Friedenspreisrede in 1998 the number of publications imputing the opus of Martin Walser to be nationalistic and anti-Semitic rises. Sometimes it is suggested that he tries to strengthen nationalistic tendendices with an exklusion of the Jewish and that there is irreconcilability between the community of delinquents and the community of victims after 1945. Walsers Radio Play "Das Gespenst von Gattnau" admits the assumption of another tendency: the tendency of conciliation.
urn:nbn:de:kobv:517-opus-44788
4478
978-3-86956-077-9
GN 9560
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Christoph Sebastian Widdau
deu
uncontrolled
Deutsche Literatur
deu
uncontrolled
Hörspiel
deu
uncontrolled
Vergangenheitsbewältigung
deu
uncontrolled
Martin Walser
eng
uncontrolled
German Literature
eng
uncontrolled
Radio Play
eng
uncontrolled
Vergangenheitsbewältigung
eng
uncontrolled
Martin Walser
Literatur und Rhetorik
open_access
Sozialwissenschaften
Universität Potsdam
https://publishup.uni-potsdam.de/files/4360/widdau_randegg.pdf
5615
2010
deu
masterthesis
1
2012-02-21
--
--
Das Leben in einem ostdeutschen Plattenbaugebiet aus der Perspektive seiner Einwohner : eine qualitative Studie in Strausberg-Hegermühle
Life in an East German Plattenbau estate in the perspective of its inhabitants : a qualitative enquiry in Strausberg-Hegermühle
Architektur und Städtebau des Sozialismus haben nach der politischen Wende der Jahre 1989-1991 einen erheblichen Wertungswandel erfahren. Insbesondere die in industrieller Bauweise errichteten Quartiere des komplexen Wohnungsbaus, die einstmals privilegierte Wohngegenden waren, haben heute oftmals den Ruf von „Ghettos“. Die vorliegende Arbeit möchte einen Beitrag dazu leisten, dieses Bild zu korrigieren und das öffentliche Image von Plattenbausiedlungen zu verbessern. Dazu wurde anhand des ostdeutschen Plattenbaugebietes Strausberg-Hegermühle untersucht, welche Faktoren die positive Identifikation der Bewohner mit ihrem Viertel begünstigen. Ziel der Arbeit ist, damit Anregungen für die Praxis lokal engagierter Bürger, Kommunalpolitiker, Wohnungsgesellschaften und Verwaltungen zu geben. Das Wohngebiet „Hegermühle“ in der brandenburgischen Mittelstadt Strausberg wurde in den 1980er Jahren gebaut. Die Bevölkerung Hegermühles war bis 1990 stark durch Mitarbeiter des Ministeriums für Nationale Verteidigung der Deutschen Demokratischen Republik geprägt. Die Wohnungen im Viertel waren wegen ihres hohen technischen Standards begehrt. Nach dem Ende der DDR erfuhr das Viertel einen starken Wandel seiner Sozialstruktur und bekam ein Image, das zwischen den Polen „graue Schlafstadt“ und „sozialer Brennpunkt“ angesiedelt ist. In diesem Wohngebiet wurde im zweiten Halbjahr 2009 eine qualitative Untersuchung durchgeführt. Neben mehreren in Bild- und Textform dokumentierten Feldexplorationen wurde eine Reihe von Interviews mit Personen geführt, die aktuell in Hegermühle wohnen oder früher dort wohnten. Die Auswahl der Interviewpartner erfolgte nach der Methode des Theoretical Sampling (Glaser/Strauss), wobei eine möglichst große Differenzierung des Samples nach Alter, Herkunft, Geschlecht und Beruf angestrebt wurde. Die Interviews wurden nach der Methode des Problemzentrierten Interviews (Witzel) geführt und auf Grundlage des Konzepts der Grounded Theory (Glaser/Strauss) ausgewertet. Für die Arbeit wurden acht Interviews ausgewählt, in denen die Interviewten Auskunft geben über die folgenden Themen: die Umstände ihres Zuzugs nach Hegermühle, die Entwicklung des Wohngebiets seitdem, das Image Hegermühles, ihr eigenes Verhältnis zum Viertel und die Perspektiven des Wohngebiets. Als Ergebnis der Arbeit lässt sich festhalten, dass die positive Identifikation mit dem Wohngebiet am stärksten durch die problematische Sozialstruktur behindert wird, die in hohem Maße von Arbeitslosigkeit und sozialen Desintegrationserscheinungen geprägt ist. Davon abgesehen überwiegen pragmatische Kriterien bei der Bewertung des Wohngebiets. Die gute infrastrukturelle Ausstattung Hegermühles mit Einkaufs-, Betreuungs- und Erholungsmöglichkeiten wurde von allen Befragten positiv hervorgehoben. Diese Faktoren sind jedoch genau so auch in anderen Orten zu finden und damit nicht geeignet, eine Identifikation mit einem spezifischen Ort zu befördern. Von den Befragten wurde daher auch mehrfach auf das Fehlen von Merkmalen hingewiesen, die Hegermühle auszeichnen und es von anderen Vierteln abheben. Dagegen war die Lokalidentität bei den Interviewpartnern am stärksten, die den Aufbau Hegermühles in den 1980er Jahren persönlich miterlebt haben. Die Arbeit schließt darum mit Überlegungen, wie diese Erfahrung einer Ortsgeschichte, die Bedeutung für die eigene Biografie hat, anderen Einwohnern vermittelt werden kann. Zwei mögliche Konzepte werden vorgeschlagen: a) die Erforschung und Vermittlung der Wohngebietsgeschichte, sowie b) die Schaffung und Pflege räumlicher Identifikationspunkte, die die lokale Geschichte, Landschaft und andere Besonderheiten des Viertels im Alltag erfahrbar machen. Beispielsweise können Kunstwerke im öffentlichen Raum oder Gedenktafeln als Anknüpfungspunkte einer ortsbezogenen Identität dienen und ein Gefühl persönlicher Verbundenheit mit dem Wohnort bestärken. Damit könnte unabhängig von pragmatischen Faktoren eine Bindung an den Ort begünstigt und die Bereitschaft der Einwohner erhöht werden, sich für die Verbesserung der Verhältnisse im Wohngebiet einzusetzen.
The judgment on socialism’s architecture and urban design has undergone a large change since the political turn of the years 1989-1991. This is especially true for the industrially built housing estates of the complex housing program, which were once privileged residential areas, but which now have a reputation as “ghettos”. This paper is meant to contribute to the correction of this perception and to the improvement of the public image of “Plattenbau” housing estates. In order to achieve this, research was done in the East German housing estate Strausberg-Hegermühle to find factors which promote positive identification of residents with their neighbourhood. The paper aims at giving suggestions for the work of locally committed citizens, community politicians, residential housing companies and local administrations. The housing estate “Hegermühle” in the medium-sized Brandenburg town Strausberg was built in the 1980s. Until 1990, Hegermühle’s population was dominated by employees of the German Democratic Republic’s Ministry of National Defence. Apartments in the neighbourhood were sought after because of their high technical standard. After the GDR’s demise, the neighbourhood’s social structure changed profoundly. Today, its public image is located between the extremes “boring dormitory town” and “deprived area”. In the second half of 2009, a qualitative enquiry was conducted in this housing estate. Apart from field explorations, which were documented in text and image, a number of interviews was conducted with persons who were living or had formerly been living in Hegermühle. Interviewees were selected according to the method of theoretical sampling (Glaser/Strauss) with the goal of achieving a high differentiation of the sample in terms of age, descent, gender and profession. The interviews were conducted according to Witzel’s method of problem-centered interviews, and they were interpreted on the basis of Glaser’s & Strauss’ grounded theory concept. For this paper, eight interviews were selected, in which the interviewees speak about the following topics: the circumstances of their moving to Hegermühle, the neighbourhood’s development since then, the public image of Hegermühle, their own relationship with the neighbourhood and the housing estate’s future perspective. The results of the conducted research show that the largest obstacle for positive identification with the housing estate is its problematic social structure, which is highly dominated by unemployment and social disintegration. Apart from that, the housing estate is mostly judged by pragmatic criteria. The good infrastructure of Hegermühle, which includes facilities for shopping, child care and recreation, was emphasized by all interviewees. These factors though can be found in the same form in other places. Thus they are not able to serve as a base for identification with any specific place. That is why it was remarked by the interviewees that Hegermühle lacked distinguishing features which separate it from other neighbourhoods. In contrast, those interviewees who had personally witnessed the creation of Hegermühle in the 1980s showed the highest level of local identity. Because of this, the paper ends with reflections on how this experience of a local history of significance to one’s own biography can be shared by other residents. Two possible concepts are proposed: a) exploration and presentation of the housing estate’s history, and b) creation and preservation of spatial points of identification, which make the local history, landscape and other distinguishing features of the neighbourhood perceivable in everyday life. Public works of art or commemorative plaques for example could serve as links for a local identity and could strengthen a feeling of personal connection with the place of living. This could promote a local connection independent from pragmatic factors and increase the residents’ willingness to get involved in the improvement of their housing estate.
urn:nbn:de:kobv:517-opus-57913
5791
MS 1810
MS 1780
Markus Wollina
deu
uncontrolled
Qualitative Sozialforschung
deu
uncontrolled
Strausberg
deu
uncontrolled
Neubaugebiet
deu
uncontrolled
Regionale Identität
deu
uncontrolled
Stadtsoziologie
eng
uncontrolled
Qualitative enquiry
eng
uncontrolled
Strausberg
eng
uncontrolled
housing estate
eng
uncontrolled
local identity
eng
uncontrolled
urban sociology
Sozialwissenschaften
open_access
Sozialwissenschaften
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/5615/wollina_magister.pdf
5594
2010
deu
doctoralthesis
1
2012-01-24
--
2010-10-05
Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur
How children interpret sentences with nur? : Experiments on the acquisition of information structure
Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert.
Challenging previous accounts of children’s comprehension of focus particles, this study investigated how 6-year-old, German-speaking children interpret sentences with the focus particle nur(‘only’). Five experiments examined 1) whether the surface position of the focus particle has an impact on the sentence comprehension and 2) which role an adequate context plays for a target-like interpretation of a nur-sentence. It is known that in English, up to age 7, sentences with only are not interpreted adult-like. Crain et al. (1992) attributed errors to incorrect scope restrictions of the FP; Paterson et al. (2003) argued that children do not process the contrast information and instead ignore the FP. As oppose to previous research, the present data showed that German-speaking children interpret nur-sentences target-like if the sentences were contextually embedded. Furthermore, the results showed that children performed better on nur-object sentences like Die Maus hat nur einen Ball (‘The mouse has only a ball.’) than on nur-subject sentences like Nur die Maus hat einen Ball. (‘Only the mouse has a ball.’). This study argues that the asymmetry in the interpretation of nur-sentences stems from information-structural characteristics. In particular, I postulate the topic-default account which claims that children recognize the subject of the sentence as the topic by default. As a consequence, children assign an incorrect information structure to sentences with nur before the subject. Finally, based on the empirical findings of this study and on the topic-default account, an acquisition model for the comprehension of sentences with the focus particle nur is developed and discussed.
urn:nbn:de:kobv:517-opus-57767
5776
ET 775
GC 7205
GC 7367
Anja Müller
deu
uncontrolled
Fokuspartikel
deu
uncontrolled
Informationsstruktur
deu
uncontrolled
Spracherwerb
deu
uncontrolled
Satzverständnis
eng
uncontrolled
focus particle
eng
uncontrolled
information structure
eng
uncontrolled
language acquisition
eng
uncontrolled
sentence comprehension
Sprache
open_access
Department Linguistik
Institut für Linguistik / Allgemeine Sprachwissenschaft
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/5594/mueller_diss.pdf
84
2010
eng
17
book
Universitätsverlag Potsdam
Potsdam
1
2010-06-15
--
--
Business process model abstraction : theory and practice
Business process management aims at capturing, understanding, and improving work in organizations. The central artifacts are process models, which serve different purposes. Detailed process models are used to analyze concrete working procedures, while high-level models show, for instance, handovers between departments. To provide different views on process models, business process model abstraction has emerged. While several approaches have been proposed, a number of abstraction use case that are both relevant for industry and scientifically challenging are yet to be addressed. In this paper we systematically develop, classify, and consolidate different use cases for business process model abstraction. The reported work is based on a study with BPM users in the health insurance sector and validated with a BPM consultancy company and a large BPM vendor. The identified fifteen abstraction use cases reflect the industry demand. The related work on business process model abstraction is evaluated against the use cases, which leads to a research agenda.
urn:nbn:de:kobv:517-opus-41782
4178
978-3-86956-054-0
ST 230
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Sergey Smirnov
Hajo A. Reijers
Thijs Nugteren
Mathias Weske
Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam
35
Datenverarbeitung; Informatik
open_access
Extern
Hasso-Plattner-Institut für Digital Engineering gGmbH
Universitätsverlag Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/84/tbhpi35.pdf
4934
2010
deu
doctoralthesis
1
2011-04-06
--
2011-02-16
Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter
Dynamical influence on stratospheric ozone variability over the Arctic in early winter
Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus.
The ozone amount in early winter provides an indication of the ozone amount in late winter/early spring. The early winter amount is highly variable from year to year due to modification by subsidence, chemical loss and wave activity. This thesis shows that this variability is mainly caused by the dynamics during the Arctic polar vortex formation. Furthermore, it explains the still missing link between early and late winter ozone amount due to dynamics and chemistry. Observational ozone data from satellite based instruments, ozone probes and simulations are used for the investigation of the connection between the composition of the air and the ozone enclosed in the polar vortex. The simulations are calculated with the Lagrangian chemistry/transport model ATLAS. The over area (45–75°N) and time (August-November) averaged vertical component of the Eliassen-Palm flux at 100hPa points to a link between the early winter composition of the air enclosed in the polar vortex and the vortex formation phase. This is only valid for the lower stratosphere, because the component does not satisfy changing conditions for wave propagation throughout the stratosphere by itself. Due to this deficit a new integral quantity based on wave amplitude and properties of the Charney-Drazin criterion is defined to achieve an improvement with height. This new quantity connects the wave activity during vortex formation to the composition of air inside the vortex as well as the distribution of ozone over latitude. An enhanced wave activity leads to a higher proportion of ozone rich air from lower latitudes inside the polar vortex. But chemistry in autumn and early winter removes the interannual variability in the amount of ozone enclosed in the vortex induced by dynamical processes during the formation phase of the Artic polar vortex because ozone relaxes towards equilibrium. An estimation of how relevant these variable dynamical processes are for the Arctic winter ozone abundances is obtained by analysing which fraction of dynamically induced anomalies in ozone persists until mid winter. Model runs with the Lagrangian Chemistry-Transport-Model ATLAS for the winter 1999–2000 are used to assess the fate of ozone anomalies artificially introduced during the vortex formation phase. These runs provide detailed information about the persistence of the induced ozone variability over time, height and latitude. Overall, dynamically induced ozone variability from the vortex formation phase survives longer inside the polar vortex compared to outside and can not significantly contribute to mid-winter variability at levels above 750K potential temperature level. At lower levels increasingly larger fractions of the initial perturbation survive, reaching 90% at 450K potential temperature level. In this vertical range dynamical processes during the vortex formation phase are crucial for the ozone abundance in mid-winter.
urn:nbn:de:kobv:517-opus-51394
5139
PACS-Klassifikation: 82.33.Tb , 92.60.hd
UT 9000
UT 6220
UT 5250
Daniela Bleßmann
deu
uncontrolled
Stratosphäre
deu
uncontrolled
Ozon
deu
uncontrolled
Variabilität
deu
uncontrolled
Dynamik
deu
uncontrolled
Chemie-Transport-Modell
eng
uncontrolled
stratosphere
eng
uncontrolled
ozone
eng
uncontrolled
variability
eng
uncontrolled
dynamics
eng
uncontrolled
chemistry-transport-model
Physik
open_access
Institut für Physik und Astronomie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4934/blessmann_diss.pdf
4806
2010
deu
doctoralthesis
1
2011-02-08
--
2010-11-03
Fernerkundung und GIS zur Erfassung, Modellierung und Visualisierung orientalischer Stadtstrukturen : das Beispiel Sanaa (Jemen)
Acquisition, modelling and visualisation of oriental city structures with remote sensing and GIS : the case of Sanaa (Yemen)
Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockengürtel mittels hochauflösender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden können. Daten von hochauflösenden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Gebäude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen können zur Erfassung von Urbanisierungsprozessen (Stadt- und Bevölkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung für touristische Anwendungen, für die Stadtplanung, für Lärmanalysen oder für die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Gebäudedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Gebäude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Geländedaten, ergänzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und für jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgeführt wurde. Zusätzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Flächen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schwächen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Geländemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Gebäude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort für die Klassifikation herrschenden ungünstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den höchsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse gehörende Fläche besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit kürzer und die Speicherkapazität geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-geführten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Gebäude möglich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enthält. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer räumlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu zählen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die für Sanaa typischen Hochhäuser werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere städtische Räume des Typus orientalische Stadt angewendet werden kann.
This study aims at the development and implementation of a generic procedure for the acquisition, processing, analysis and cartographic visualisation of urban space in arid zone cities based on operational remote sensing imagery. As a proof of concept the Yemeni capital Sanaa has been selected as a use case. The workflow developed is based on standard procedures and systems of spatial information processing and allows for subsequent automation oft its essential processes. Today, high-resolution remote sensing data from operational satellite systems (such as QuickBird, Ikonos etc) facilitate the recognition and mapping of urban objects such as buildings, streets and even cars which, in the past could only be acquired by non-operational aerial photography. The satellite imagery can be used to generate maps and even 3D-representation of the urban space. Both maps and 3D-visualisations can be used for up-to-date land use mapping, zoning and urban planning purposes etc. The 3D-visualisation provides a deeper understanding of urban structures by integrating building height into the analysis. For this study remote sensing data of the Quickbird satellite data of 2005 were used. They show a section of the city of Sanaa in Yemen. The remote sensing data were supplemented and verified by other data, including terrain data. The image data are then subjected to thorough digital image. This procedure consists of a pixel-oriented classification of the satellite image acquisition at class level. In addition, a visual interpretation of the satellite image has been undertaken to identify and label individual objects (areas, surfaces, streets) etc. which were subsequently digitised. The town maps created in both procedures were merged to one. Through this combination of the results, the advantages of both maps are brought together and their respective weaknesses are eliminated or minimized. The digital collection of the contour lines on the orthophoto map of Sanaa allowed for the creation of a digital terrain model, which was used for the three-dimensional representation of Sanaa's historic district. The 3D-visualisation was created from the classification results as well as from the digital collection of the objects and the results of both visualisations were combined in a city map. In all classification procedures, paved roads, vegetation and single buildings were detected very well. The best overall results with the highest accuracy values achieved in the pixel-oriented classification at class level. Because each class has been classified separately, size belonging to that class can be better understood and optimised. The amount of data could be reduced, thus requiring less memory and resulting in a shorter processing time. The evaluation and validation of the pixel-oriented visual classification results at class level with the original satellite imagery was designed more simply and more accurately than other classification methods implemented. It was also possible by the separate recording of the class building to create a 3D-visualisation. A comparison of the maps created found that the map created from visual interpretation contains more information. The map based on pixel-oriented classification results at class level proved to be less labor- and time-consuming, and the structure of an oriental city with the main features will be worked out better. The 2D-maps and the 3D-visualisation provide a different spatial impression, and certain elements of an oriental city clearly detectable. These include the characteristic dead ends in the old town and the former city wall. The typical high-rise houses of Sanaa are detected in the 3D-visualisation. This work developed a generic procedure to detect, analyse and visualise urban structures in arid zone environments. The city of Sanaa served as a proof of concept. The results show that the workflow developed is instrumental in detecting typical structures of oriental cities. The results achieved in the case study Sanaa prove that the process can be adapted to the investigation of other arid zone cities in the Middle East with minor modifications.
urn:nbn:de:kobv:517-opus-50200
5020
Berlin: Mensch und Buch Verlag, 2011. - ISBN 978-3-86664-890-6
RB 10232
RR 23232
RR 23627
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Abdlhamed Jamil
deu
uncontrolled
Fernerkundung
deu
uncontrolled
3D-Visualisierung
deu
uncontrolled
Klassifikation
deu
uncontrolled
2D-Stadtmodell
deu
uncontrolled
orientalische Stadt
eng
uncontrolled
remote sensing
eng
uncontrolled
3D visualization
eng
uncontrolled
classification
eng
uncontrolled
2D city model
eng
uncontrolled
oriental city
Geowissenschaften
open_access
Institut für Umweltwissenschaften und Geographie
Institut für Geographie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4806/jamil_diss.pdf
4848
2010
eng
doctoralthesis
1
2011-03-10
--
2010-12-02
Formalization of a converged internet and telecommunications service environment
Formalisierung einer konvergenten Telekommunikations- undInternet-Dienstumgebung
The programmable network envisioned in the 1990s within standardization and research for the Intelligent Network is currently coming into reality using IPbased Next Generation Networks (NGN) and applying Service-Oriented Architecture (SOA) principles for service creation, execution, and hosting. SOA is the foundation for both next-generation telecommunications and middleware architectures, which are rapidly converging on top of commodity transport services. Services such as triple/quadruple play, multimedia messaging, and presence are enabled by the emerging service-oriented IPMultimedia Subsystem (IMS), and allow telecommunications service providers to maintain, if not improve, their position in the marketplace. SOA becomes the de facto standard in next-generation middleware systems as the system model of choice to interconnect service consumers and providers within and between enterprises. We leverage previous research activities in overlay networking technologies along with recent advances in network abstraction, service exposure, and service creation to develop a paradigm for a service environment providing converged Internet and Telecommunications services that we call Service Broker. Such a Service Broker provides mechanisms to combine and mediate between different service paradigms from the two domains Internet/WWW and telecommunications. Furthermore, it enables the composition of services across these domains and is capable of defining and applying temporal constraints during creation and execution time. By adding network-awareness into the service fabric, such a Service Broker may also act as a next generation network-to-service element allowing the composition of crossdomain and cross-layer network and service resources. The contribution of this research is threefold: first, we analyze and classify principles and technologies from Information Technologies (IT) and telecommunications to identify and discuss issues allowing cross-domain composition in a converging service layer. Second, we discuss service composition methods allowing the creation of converged services on an abstract level; in particular, we present a formalized method for model-checking of such compositions. Finally, we propose a Service Broker architecture converging Internet and Telecom services. This environment enables cross-domain feature interaction in services through formalized obligation policies acting as constraints during service discovery, creation, and execution time.
Das programmierbare Netz, das Ende des 20. Jahrhunderts in der Standardisierung und Forschung für das Intelligente Netz entworfen wurde, wird nun Realität in einem auf das Internet Protokoll basierendem Netz der nächsten Generation (Next Generation Network). Hierfür kommen Prinzipien aus der Informationstechnologie, insbesondere aus dem Bereich dienstorientierte Architekturen (Service-Oriented Architecture / SOA) für die Diensterstellung, -ausführung und -betrieb zum Tragen. SOA bietet hierbei die theoretische Grundlage für Telekommunikationsnetze, vor allem jedoch für die dazugehörigen Dienstplattformen. Diese erlauben dem Telekommunikationsbetreiber seine Position in einem offenen Marktplatz der Dienste auszubauen. Dazu bedarf es allerdings möglichst flexibler Dienstumgebungen, die die Kooperation zwischen Dienstanbietern und Nutzern aus unterschiedlichsten Domänen durch Unterstützung geeigneter Werkzeuge und Mechanismen fördert. Im Rahmen dieser Dissertation definieren wir aufbauend auf Forschungsergebnisse im Bereich Overlay-Netze, Netzabstraktion und Zugriff auf exponierte Dienste eine Service Broker genannte Dienstumgebung für konvergente Internet- und Telekommunikationsdienste. Dieser Service Broker stellt Mechanismen für die Komposition von Diensten und Mediation zwischen unterschiedlichen Dienstparadigmen und Domänenspezifika beim Dienstaufruf zur Verfügung. Der Forschungsbeitrag dieser Arbeit findet auf unterschiedlichen Ebenen statt: Aufbauend auf einer Analyse und Klassifikation von Technologien und Paradigmen aus den Bereichen Informationstechnologie (IT) und Telekommunikation diskutieren wir die Problemstellung der Kooperation von Diensten und deren Komposition über Domänengrenzen hinweg. In einem zweiten Schritt diskutieren wir Methoden der Dienstkomposition und präsentieren eine formalisierte Methode der modellbasierten Diensterstellung. Der Schwerpunkt der Arbeit liegt auf der Spezifikation der Service Broker Dienstumgebung und einem zugrundeliegenden Informations- und Datenmodell. Diese Architektur erlaubt die Komposition und Kooperation von Diensten über Domänengrenzen hinweg, um konvergente Internet- und Telekommunikationsdienste zu realisieren. Hierfür wird ein auf Obligationspolitiken basierendes Regelsystemformalisiert, das Interaktionen zwischen Dienstmerkmalen während der Diensterstellung und -ausführung definiert.
urn:nbn:de:kobv:517-opus-51146
5114
CCS - Klassifikation: C.2.4 , H.4.3 , D.2.11
ST 235
Niklas Blum
deu
uncontrolled
Telekommunikation
deu
uncontrolled
konvergente Dienste
deu
uncontrolled
Next Generation Network
deu
uncontrolled
Dienstplattform
deu
uncontrolled
Dienstkomposition
eng
uncontrolled
Service Delivery Platform
eng
uncontrolled
Next Generation Network
eng
uncontrolled
Service Creation
eng
uncontrolled
Service convergence
eng
uncontrolled
Policy Enforcement
Datenverarbeitung; Informatik
open_access
Institut für Informatik und Computational Science
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4848/blum_diss.pdf
4849
2010
deu
doctoralthesis
1
2011-03-10
--
2011-02-02
Die Fußballclubs Rot-Weiß Erfurt und Carl Zeiss Jena und ihre Vorgänger in der DDR : ein Vergleich ihrer Bedingungen
The football clubs Rot-Weiss Erfurt and Carl Zeiss Jena and its predecessors in the GDR : a comparison of their conditions
Der SC Motor/FC Carl Zeiss Jena war seit Ende der 50-er Jahre bis in die 80-er Jahre hinein ein vom DFV der DDR und vom DTSB immer wieder benannter und bestätigter Schwerpunktclub innerhalb der sogenannten zivilen Clubs. Der SC Turbine/FC Rot-Weiß Erfurt konnte diesen Status innerhalb des Fußballverbands dagegen nie erreichen. Die zentrale Frage dieser Dissertation nach den spezifischen Bedingungsgefügen des zivilen Schwerpunktclubs FC Carl Zeiss Jena (und Vorgänger) und des zivilen Nichtschwerpunktclubs FC Rot-Weiß Erfurt (und Vorgänger) im DDR-Fußballsystem ergab sich aus dieser unterschiedlichen Privilegierung und den ungleichen Erfolgsbilanzen dieser beiden Clubs. Die Hypothese der komparativ angelegten Fallstudie vermutete einen unmittelbaren Zusammenhang zwischen diesen deutlich sichtbaren Erfolgsunterschieden der beiden Mannschaften in der DDR und den erfolgten Schwerpunktfestlegungen. Zusätzlich konnte vermutet werden, dass ein beträchtlicher Anteil an den Jenaer Erfolgen auf die besonders starke Unterstützung des wirtschaftlich mächtigen VEB Carl Zeiss Jena zurückzuführen war. Um diesen Zusammenhängen nachzugehen, fragte der Autor nach den konkreten Bevorzugungen des Jenaer Schwerpunktclubs und den Benachteiligungen des Erfurter Nichtschwerpunktclubs und nach den spezifischen Bedingungen und Handlungsspielräumen der beiden Thüringer Mannschaften in der DDR. Daraus ergaben sich eine Reihe von detaillierten, auf einen Vergleich der verschiedenen Bedingungen in Erfurt und in Jena hin orientierte, Fragen, welche in der vorliegenden Untersuchung detailliert beantwortet werden: Wie sah die besondere Förderung des DFV bzw. des DTSB für einen Schwerpunktclub wie Jena überhaupt aus? Wer nahm Einfluss auf die Clubs, von wem waren diese abhängig, wer förderte sie durch welche Leistungen? Wie wurden diese Beschlüsse vor Ort umgesetzt? Wer waren die Trägerbetriebe und in welchem Maße und wodurch engagierten sich diese für den Fußball in Erfurt und Jena? Wie kamen die häufigen Wechsel der besten Spieler Erfurts nach Jena zustande? Warum war die Richtung dieser Wechsel insgesamt einseitig in Richtung Jena? Welche finanziellen, materiellen und sozialen Bedingungen konnten den Spielern in Jena und Erfurt geboten werden? Die vorliegenden Ergebnisse dieser erstmals für die zivilen Clubs auf der Mikroperspektive angelegten systematischen Untersuchung bestätigen das bereits von Hans Joachim Teichler als grundlegend für den DDR-Fußball beschriebene Konfliktmuster des „Fußball-Lokalpatriotismus versus Parteiräson“. Eigenmächtige Handlungen vieler Betriebsleiter und zahlreicher Partei- und Gewerkschaftsfunktionäre in den Trägerbetrieben konnten beispielsweise in Erfurt bei der eigenmächtigen Erhöhung der Aufnahmezahlen von Fußballern an die KJS Erfurt oder in Jena bei der Anstellung der Fußballer im Zeisswerk nachgewiesen werden. Das am sowjetischen Vorbild orientierte Sportsystem der DDR mit seinen engen Bindungen an die Trägerbetriebe provozierte geradezu verdeckte Zuwendungen der Betriebe, die über die Clubs an die Spieler weitergereicht wurden. Für die zentralen Instanzen des DDR-Fußballs war das ein Dauerproblem, weil sich damit ein Großteil der Vorgänge vor Ort der Steuerung entzog. Wie in der vorliegenden Arbeit beschrieben wird, war genau dies jedoch der Schlüssel für den Erfolg des SC Motor/FC Carl Zeiss Jena vom Ende der 50-er bis in den Anfang der 80-er Jahre bzw. für den vergleichsweisen Misserfolg des SC Turbine/FC Rot-Weiß Erfurt im gleichen Zeitraum. Dass letztlich die finanziellen, materiellen und sozialen Möglichkeiten die entscheidende Gründe für die Spieler waren, zu einem anderen Club oder einer BSG zu wechseln, mithin demnach Marktmechanismen, und hier in erster Linie der Grund für die Stärke des SC Motor/FC Carl Zeiss Jena zu suchen ist, ist eine zentrale Erkenntnis dieser Arbeit.
The SC Motor/FC Carl Zeiss Jena was in the late 50's to the 80's one of the DFV der DDR and of the DTSB repeatedly nominated and confirmed priority club within the so-called civilian clubs. The SC Turbine/FC Rot-Weiss Erfurt could never reach this status within the Football Association. The central question of this thesis to the specific structure of conditions of the civilian priority club FC Carl Zeiss Jena (and earlier) and of the civilian non-focal clubs FC Rot-Weiss Erfurt (and earlier) in the East German football system resulted from these different privileges, and the uneven track records of these two clubs. The hypothesis of the comparative case study to suspected a direct relationship between these highly visible success differences between the two teams in the East and made the key requirements. Additionally it was suggested that a significant proportion of the Jena successes to the particularly strong support of the economically powerful VEB Carl Zeiss Jena was due. To investigate these relationships, the author asked about the specific preferences of the Jena focal club and the disadvantages of the Erfurt non-focal clubs and on the specific conditions and scope for action of the two Thuringian teams in the GDR. This resulted in a series of detailed, based on a comparison of the different conditions in Erfurt and Jena out questions that are answered in detail in this study: What was the specific support of the DFV or the DTSB for a priority club like Jena at all from? Who took effect on the club, by whom they were dependent on who they supported by what is included? How these decisions were implemented on site? Who were the carrier companies and to what extent and how dedicated these for football in Erfurt and Jena? How did the frequent change of the best players reached Erfurt in Jena? Why was the overall direction of these changes unilaterally in the direction of Jena? What financial, material and social conditions were the players in Jena and Erfurt are offered? The present results of this first time to the civilian clubs at the micro-perspective scale systematic study to confirm the already by Hans Joachim Teichler as fundamental to the East German football described patterns of conflict of "Football local patriotism versus party argue." Unauthorized actions of many managers and many party and union officials in the support operations for example, could be detected in Erfurt at the arbitrary increase in the numbers of pictures of football players at the KJS Erfurt in Jena or to the appointing of the footballers in the Zeiss factory. The Soviet model based on the GDR sports system provoked by his close ties to the carrier companies almost hidden benefits of companies that have been passed down through the clubs to the players. For the central authorities of the East German football was a constant problem because it deprived a large part of the operations of local control. As described in the present work, exactly that was, however, the key to the success of the SC Motor/FC Carl Zeiss Jena of the late 50's until the early 80's and for the comparative failure of the SC Turbine/FC Rot-Weiss Erfurt in the same period. That were the financial, physical and social opportunities the key reason for the players, ultimately, to move to another club or BSG, consequently, therefore market mechanisms, and this is primarily the reason for the strength of the SC Motor/FC Carl Zeiss Jena looking for is is a central finding of this study.
urn:nbn:de:kobv:517-opus-51065
5106
<hr/>
Aus Gründen des Persönlichkeitsschutzes musste das am 10.03.2011 veröffentlichte Dokument am 14.06.2011 durch eine anonymisierte Fassung ersetzt werden.
ZY 2023
Michael Kummer
deu
uncontrolled
DDR-Fußball
deu
uncontrolled
FC Rot-Weiß Erfurt
deu
uncontrolled
FC Carl Zeiss Jena
deu
uncontrolled
Turbine Erfurt
deu
uncontrolled
Motor Jena
eng
uncontrolled
GDR-football
eng
uncontrolled
FC Rot-Weiss Erfurt
eng
uncontrolled
FC Carl Zeiss Jena
eng
uncontrolled
Turbine Erfurt
eng
uncontrolled
Motor Jena
Geschichte Mitteleuropas; Deutschlands
open_access
Department Sport- und Gesundheitswissenschaften
Institut für Sportwissenschaft
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4849/kummer_diss.pdf
4928
2010
deu
doctoralthesis
1
2011-06-27
--
2011-05-24
Hybride Dünnschicht-Solarzellen aus mesoporösem Titandioxid und konjugierten Polymeren
Hybrid thin solar cells comprising mesoporous titanium dioxide and conjugated polymers
Das Ziel dieser Arbeit ist die Untersuchung der aktiven Komponenten und ihrer Wechselwirkungen in teilorganischen Hybrid-Solarzellen. Diese bestehen aus einer dünnen Titandioxidschicht, kombiniert mit einer dünnen Polymerschicht. Die Effizienz der Hybrid-Solarzellen wird durch die Lichtabsorption im Polymer, die Dissoziation der gebildeten Exzitonen an der aktiven Grenzfläche zwischen TiO2 und Polymer, sowie durch Generation und Extraktion freier Ladungsträger bestimmt. Zur Optimierung der Solarzellen wurden grundlegende physikalische Wechselwirkungen zwischen den verwendeten Materialen sowie der Einfluss verschiedener Herstellungsparameter untersucht. Unter anderem wurden Fragen zum optimalen Materialeinsatz und Präparationsbedingungen beantwortet sowie grundlegende Einflüsse wie Schichtmorphologie und Polymerinfiltration näher betrachtet. Zunächst wurde aus unterschiedlich hergestelltem Titandioxid (Akzeptor-Schicht) eine Auswahl für den Einsatz in Hybrid-Solarzellen getroffen. Kriterium war hierbei die unterschiedliche Morphologie aufgrund der Oberflächenbeschaffenheit, der Film-Struktur, der Kristallinität und die daraus resultierenden Solarzelleneigenschaften. Für die anschließenden Untersuchungen wurden mesoporöse TiO2–Filme aus einer neuen Nanopartikel-Synthese, welche es erlaubt, kristalline Partikel schon während der Synthese herzustellen, als Elektronenakzeptor und konjugierte Polymere auf Poly(p-Phenylen-Vinylen) (PPV)- bzw. Thiophenbasis als Donatormaterial verwendet. Bei der thermischen Behandlung der TiO2-Schichten erfolgt eine temperaturabhängige Änderung der Morphologie, jedoch nicht der Kristallstruktur. Die Auswirkungen auf die Solarzelleneigenschaften wurden dokumentiert und diskutiert. Um die Vorteile der Nanopartikel-Synthese, die Bildung kristalliner TiO2-Partikel bei tiefen Temperaturen, nutzen zu können, wurden erste Versuche zur UV-Vernetzung durchgeführt. Neben der Beschaffenheit der Oxidschicht wurde auch der Einfluss der Polymermorphologie, bedingt durch Lösungsmittelvariation und Tempertemperatur, untersucht. Hierbei konnte gezeigt werden, dass u.a. die Viskosität der Polymerlösung die Infiltration in die TiO2-Schicht und dadurch die Effizienz der Solarzelle beeinflusst. Ein weiterer Ansatz zur Erhöhung der Effizienz ist die Entwicklung neuer lochleitender Polymere, welche möglichst über einen weiten spektralen Bereich Licht absorbieren und an die Bandlücke des TiO2 angepasst sind. Hierzu wurden einige neuartige Konzepte, z.B. die Kombination von Thiophen- und Phenyl-Einheiten näher untersucht. Auch wurde die Sensibilisierung der Titandioxidschicht in Anlehnung an die höheren Effizienzen der Farbstoffzellen in Betracht gezogen. Zusammenfassend konnten im Rahmen dieser Arbeit wichtige Einflussparameter auf die Funktion hybrider Solarzellen identifiziert und z.T. näher diskutiert werden. Für einige limitierende Faktoren wurden Konzepte zur Verbesserung bzw. Vermeidung vorgestellt.
The main objective of this thesis is to study the active components and their interactions in so called organic hybrid solar cells. These consist of a thin inorganic titanium dioxide layer, combined with a polymer layer. In general, the efficiency of these hybrid solar cells is determined by the light absorption in the donor polymer, the dissociation of excitons at the heterojunction between TiO2 and polymer, as well as the generation and extraction of free charge carriers. To optimize the solar cells, the physical interactions between the materials are modified and the influences of various preparation parameters are systematically investigated. Among others, important findings regarding the optimal use of materials and preparation conditions as well as detailed investigations of fundamental factors such as film morphology and polymer infiltration are presented in more detail. First, a variety of titanium dioxide layer were produced, from which a selection for use in hybrid solar cells was made. The obtained films show differences in surface structure, film morphology and crystallinity, depending on the way how the TiO2 layer has been prepared. All these properties of the TiO2 films may strongly affect the performance of the hybrid solar cells, by influencing e.g. the exciton diffusion length, the efficiency of exciton dissociation at the hybrid interface, and the carrier transport properties. Detailed investigations were made for mesoporous TiO2 layer following a new nanoparticle synthesis route, which allows to produce crystalline particles during the synthesis. As donor component, conjugated polymers, either derivatives of cyclohexylamino-poly(p-phenylene vinylene) (PPV) or a thiophene are used. The preparation routine also includes a thermal treatment of the TiO2 layers, revealing a temperature-dependent change in morphology, but not of the crystal structure. The effects on the solar cell properties have been documented and discussed. To take advantage of the nanoparticle synthesis, the formation of crystalline TiO2 particles by UV crosslinking and first solar cell measurements are presented. In addition to the nature of the TiO2 layer, the influence of polymer morphology is investigated. Different morphologies are realized by solvent variation and thermal annealing. It is shown that, among other factors, the viscosity of the polymer solution and the infiltration into the TiO2 layer mainly affects the efficiency of the solar cell. Another approach to increase the efficiency is the development of new hole-conducting polymers that absorb over a wide spectral range and which are adjusted to the energy levels of TiO2. Also new concepts, for example, the combination of thiophene- and phenyl-units into a copolymer are investigated in more detail. In summary, important parameters influencing the properties of hybrid solar cells are identified and discussed in more detail. For some limiting factors concepts to overcome these limitations are presented.
urn:nbn:de:kobv:517-opus-52619
5261
UV 2100
UV 7000
UV 5100
UP 7580
ZN 5160
Sylvia Schattauer
deu
uncontrolled
hybride Solarzellen
deu
uncontrolled
Titandioxid
deu
uncontrolled
Sintern
deu
uncontrolled
Polymer
eng
uncontrolled
hybrid thin solar cells
eng
uncontrolled
titanium dioxide
eng
uncontrolled
thermal treatment
eng
uncontrolled
polymers
Physik
open_access
Institut für Physik und Astronomie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4928/schattauer_diss.pdf
4837
2010
eng
doctoralthesis
1
2011-03-02
--
2010-12-07
Crustal deformation source monitoring using advanced InSAR time series and time dependent inverse modeling
Monitoring der Quellen von Krustendeformationen mit Hilfe modernster InSAR Zeitreihen und zeitabhängiger inverser Modellierung
Crustal deformation can be the result of volcanic and tectonic activity such as fault dislocation and magma intrusion. The crustal deformation may precede and/or succeed the earthquake occurrence and eruption. Mitigating the associated hazard, continuous monitoring of the crustal deformation accordingly has become an important task for geo-observatories and fast response systems. Due to highly non-linear behavior of the crustal deformation fields in time and space, which are not always measurable using conventional geodetic methods (e.g., Leveling), innovative techniques of monitoring and analysis are required. In this thesis I describe novel methods to improve the ability for precise and accurate mapping the spatiotemporal surface deformation field using multi acquisitions of satellite radar data. Furthermore, to better understand the source of such spatiotemporal deformation fields, I present novel static and time dependent model inversion approaches. Almost any interferograms include areas where the signal decorrelates and is distorted by atmospheric delay. In this thesis I detail new analysis methods to reduce the limitations of conventional InSAR, by combining the benefits of advanced InSAR methods such as the permanent scatterer InSAR (PSI) and the small baseline subsets (SBAS) with a wavelet based data filtering scheme. This novel InSAR time series methodology is applied, for instance, to monitor the non-linear deformation processes at Hawaii Island. The radar phase change at Hawaii is found to be due to intrusions, eruptions, earthquakes and flank movement processes and superimposed by significant environmental artifacts (e.g., atmospheric). The deformation field, I obtained using the new InSAR analysis method, is in good agreement with continuous GPS data. This provides an accurate spatiotemporal deformation field at Hawaii, which allows time dependent source modeling. Conventional source modeling methods usually deal with static deformation field, while retrieving the dynamics of the source requires more sophisticated time dependent optimization approaches. This problem I address by combining Monte Carlo based optimization approaches with a Kalman Filter, which provides the model parameters of the deformation source consistent in time. I found there are numerous deformation sources at Hawaii Island which are spatiotemporally interacting, such as volcano inflation is associated to changes in the rifting behavior, and temporally linked to silent earthquakes. I applied these new methods to other tectonic and volcanic terrains, most of which revealing the importance of associated or coupled deformation sources. The findings are 1) the relation between deep and shallow hydrothermal and magmatic sources underneath the Campi Flegrei volcano, 2) gravity-driven deformation at Damavand volcano, 3) fault interaction associated with the 2010 Haiti earthquake, 4) independent block wise flank motion at the Hilina Fault system, Kilauea, and 5) interaction between salt diapir and the 2005 Qeshm earthquake in southern Iran. This thesis, written in cumulative form including 9 manuscripts published or under review in peer reviewed journals, improves the techniques for InSAR time series analysis and source modeling and shows the mutual dependence between adjacent deformation sources. These findings allow more realistic estimation of the hazard associated with complex volcanic and tectonic systems.
Oberflächendeformationen können eine Folge von vulkanischen und tektonischen Aktivitäten sein, wie etwa Plattenverschiebungen oder Magmaintrusion. Die Deformation der Erdkruste kann einem Erdbeben oder einem Vulkanausbruch vorausgehen und/oder folgen. Um damit drohende Gefahren für den Menschen zu verringern, ist die kontinuierliche Beobachtung von Krustendeformationen eine wichtige Aufgabe für Erdobservatorien und Fast-Responce-Systems geworden. Auf Grund des starken nicht-linearen Verhaltens von Oberflächendeformationsgebiet in Zeit und Raum, die mit konventionellen Methoden nicht immer erfasst werden (z.B., Nivellements), sind innovative Beobachtungs- und Analysetechniken erforderlich. In dieser Dissertation beschreibe ich Methoden, welche durch Mehrfachbeobachtungen der Erdoberfläche nit satellitengestützem Radar eine präzise und akkurate Abbildung der raumzeitlichen Oberflächendeformationen ermöglichen. Um die Bildung und Entwicklung von solchen raumzeitlichen Deformationsgebieten besser zu verstehen, zeige ich weiterhin neuartige Ansätze zur statischen und zeitabhängigen Modellinversion. Radar-Interferogramme weisen häufig Gebiete auf, in denen das Phasensignal dekorreliert und durch atmosphärische Laufzeitverzögerung verzerrt ist. In dieser Arbeit beschreibe ich wie Probleme des konventionellen InSAR überwunden werden können, indem fortgeschrittene InSAR-Methoden, wie das Permanent Scatterer InSAR (PSI) und Small Baseline Subsets (SBAS), mit einer Wavelet-basierten Datenfilterung verknüpft werden. Diese neuartige Analyse von InSAR Zeitreihen wird angewendet, um zum Beispiel nicht-lineare Deformationsprozesse auf Hawaii zu überwachen. Radar-Phasenänderungen, gemessen auf der Pazifikinsel, beruhen auf Magmaintrusion, Vulkaneruption, Erdbeben und Flankenbewegungsprozessen, welche durch signifikante Artefakte (z.B. atmosphärische) überlagert werden. Mit Hilfe der neuen InSAR-Analyse wurde ein Deformationsgebiet ermittelt, welches eine gute Übereinstimmung mit kontinuierlich gemessenen GPS-Daten aufweist. Auf der Grundlage eines solchen, mit hoher Genauigkeit gemessenen, raumzeitlichen Deformationsgebiets wird für Hawaii eine zeitabhängige Modellierung der Deformationsquelle ermöglicht. Konventionelle Methoden zur Modellierung von Deformationsquellen arbeiten normalerweise mit statischen Daten der Deformationsgebiete. Doch um die Dynamik einer Deformationsquelle zu untersuchen, sind hoch entwickelte zeitabhängige Optimierungsansätze notwendig. Dieses Problem bin ich durch eine Kombination von Monte-Carlo-basierten Optimierungsansätzen mit Kalman-Filtern angegangen, womit zeitlich konsistente Modellparameter der Deformationquelle gefunden werden. Ich fand auf der Insel Hawaii mehrere, raumzeitlich interagierende Deformationsquellen, etwa Vulkaninflation verknüpft mit Kluftbildungen und Veränderungen in bestehenden Klüften sowie zeitliche Korrelationen mit stillen Erdbeben. Ich wendete die neuen Methoden auf weitere tektonisch und vulkanisch aktive Gebiete an, wo häufig die eine Interaktion der Deformationsquellen nachgewiesen werden konnte und ihrer bedeutung untersucht wurde. Die untersuchten Gebiete und Deformationsquellen sind 1) tiefe und oberflächliche hydrothermale und magmatische Quellen unterhalb des Campi Flegrei Vulkans, 2) gravitationsbedingte Deformationen am Damawand Vulkan, 3) Störungsdynamik in Verbindung mit dem Haiti Beben im Jahr 2010, 4) unabhängige blockweise Flankenbewegung an der Hilina Störungszone, und 5) der Einfluss eines Salzdiapirs auf das Qeshm Erdbeben im Süd-Iran im Jahr 2005. Diese Dissertation, geschrieben als kumulative Arbeit von neun Manuskripten, welche entweder veröffentlicht oder derzeit in Begutachtung bei ‘peer-review’ Zeitschriften sind, technische Verbesserungen zur Analyse von InSAR Zeitreihen vor sowie zur Modellierung von Deformationsquellen. Sie zeigt die gegenseitige Beeinflussung von benachbarten Deformationsquellen, und sie ermöglicht, realistischere Einschätzungen von Naturgefahren, die von komplexen vulkanischen und tektonischen Systemen ausgehen.
urn:nbn:de:kobv:517-opus-50774
5077
MSC-Klassifikation: 86A22
UT 2250
UT 2700
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Manoochehr Shirzaei
deu
uncontrolled
InSAR
deu
uncontrolled
Vulkan
deu
uncontrolled
Erdbeben
deu
uncontrolled
inverse Modellierung
eng
uncontrolled
InSAR
eng
uncontrolled
Vulcano
eng
uncontrolled
earthquake
eng
uncontrolled
inverse modeling
Geowissenschaften
open_access
Institut für Geowissenschaften
Institut für Erd- und Umweltwissenschaften
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4837/shirzaei_diss.pdf
4887
2010
deu
doctoralthesis
1
2011-03-30
--
2011-03-14
Extraktion und Identifikation von Entitäten in Textdaten im Umfeld der Enterprise Search
Extraction and identification of entities in text data in the field of enterprise search
Die automatische Informationsextraktion (IE) aus unstrukturierten Texten ermöglicht völlig neue Wege, auf relevante Informationen zuzugreifen und deren Inhalte zu analysieren, die weit über bisherige Verfahren zur Stichwort-basierten Dokumentsuche hinausgehen. Die Entwicklung von Programmen zur Extraktion von maschinenlesbaren Daten aus Texten erfordert jedoch nach wie vor die Entwicklung von domänenspezifischen Extraktionsprogrammen. Insbesondere im Bereich der Enterprise Search (der Informationssuche im Unternehmensumfeld), in dem eine große Menge von heterogenen Dokumenttypen existiert, ist es oft notwendig ad-hoc Programm-module zur Extraktion von geschäftsrelevanten Entitäten zu entwickeln, die mit generischen Modulen in monolithischen IE-Systemen kombiniert werden. Dieser Umstand ist insbesondere kritisch, da potentiell für jeden einzelnen Anwendungsfall ein von Grund auf neues IE-System entwickelt werden muss. Die vorliegende Dissertation untersucht die effiziente Entwicklung und Ausführung von IE-Systemen im Kontext der Enterprise Search und effektive Methoden zur Ausnutzung bekannter strukturierter Daten im Unternehmenskontext für die Extraktion und Identifikation von geschäftsrelevanten Entitäten in Doku-menten. Grundlage der Arbeit ist eine neuartige Plattform zur Komposition von IE-Systemen auf Basis der Beschreibung des Datenflusses zwischen generischen und anwendungsspezifischen IE-Modulen. Die Plattform unterstützt insbesondere die Entwicklung und Wiederverwendung von generischen IE-Modulen und zeichnet sich durch eine höhere Flexibilität und Ausdrucksmächtigkeit im Vergleich zu vorherigen Methoden aus. Ein in der Dissertation entwickeltes Verfahren zur Dokumentverarbeitung interpretiert den Daten-austausch zwischen IE-Modulen als Datenströme und ermöglicht damit eine weitgehende Parallelisierung von einzelnen Modulen. Die autonome Ausführung der Module führt zu einer wesentlichen Beschleu-nigung der Verarbeitung von Einzeldokumenten und verbesserten Antwortzeiten, z. B. für Extraktions-dienste. Bisherige Ansätze untersuchen lediglich die Steigerung des durchschnittlichen Dokumenten-durchsatzes durch verteilte Ausführung von Instanzen eines IE-Systems. Die Informationsextraktion im Kontext der Enterprise Search unterscheidet sich z. B. von der Extraktion aus dem World Wide Web dadurch, dass in der Regel strukturierte Referenzdaten z. B. in Form von Unternehmensdatenbanken oder Terminologien zur Verfügung stehen, die oft auch die Beziehungen von Entitäten beschreiben. Entitäten im Unternehmensumfeld haben weiterhin bestimmte Charakteristiken: Eine Klasse von relevanten Entitäten folgt bestimmten Bildungsvorschriften, die nicht immer bekannt sind, auf die aber mit Hilfe von bekannten Beispielentitäten geschlossen werden kann, so dass unbekannte Entitäten extrahiert werden können. Die Bezeichner der anderen Klasse von Entitäten haben eher umschreibenden Charakter. Die korrespondierenden Umschreibungen in Texten können variieren, wodurch eine Identifikation derartiger Entitäten oft erschwert wird. Zur effizienteren Entwicklung von IE-Systemen wird in der Dissertation ein Verfahren untersucht, das alleine anhand von Beispielentitäten effektive Reguläre Ausdrücke zur Extraktion von unbekannten Entitäten erlernt und damit den manuellen Aufwand in derartigen Anwendungsfällen minimiert. Verschiedene Generalisierungs- und Spezialisierungsheuristiken erkennen Muster auf verschiedenen Abstraktionsebenen und schaffen dadurch einen Ausgleich zwischen Genauigkeit und Vollständigkeit bei der Extraktion. Bekannte Regellernverfahren im Bereich der Informationsextraktion unterstützen die beschriebenen Problemstellungen nicht, sondern benötigen einen (annotierten) Dokumentenkorpus. Eine Methode zur Identifikation von Entitäten, die durch Graph-strukturierte Referenzdaten vordefiniert sind, wird als dritter Schwerpunkt untersucht. Es werden Verfahren konzipiert, welche über einen exakten Zeichenkettenvergleich zwischen Text und Referenzdatensatz hinausgehen und Teilübereinstimmungen und Beziehungen zwischen Entitäten zur Identifikation und Disambiguierung heranziehen. Das in der Arbeit vorgestellte Verfahren ist bisherigen Ansätzen hinsichtlich der Genauigkeit und Vollständigkeit bei der Identifikation überlegen.
The automatic information extraction (IE) from unstructured texts enables new ways to access relevant information and analyze text contents, which goes beyond existing technologies for keyword-based search in document collections. However, the development of systems for extracting machine-readable data from text still requires the implementation of domain-specific extraction programs. In particular in the field of enterprise search (the retrieval of information in the enterprise settings), in which a large amount of heterogeneous document types exists, it is often necessary to develop ad-hoc program-modules and to combine them with generic program components to extract by business relevant entities. This is particularly critical, as potentially for each individual application a new IE system must be developed from scratch. In this work we examine efficient methods to develop and execute IE systems in the context of enterprise search and effective algorithms to exploit pre-existing structured data in the business context for the extraction and identification of business entities in documents. The basis of this work is a novel platform for composition of IE systems through the description of the data flow between generic and application-specific IE modules. The platform supports in particular the development and reuse of generic IE modules and is characterized by a higher flexibility as compared to previous methods. A technique developed in this work interprets the document processing as data stream between IE modules and thus enables an extensive parallelization of individual modules. The autonomous execution of each module allows for a significant runtime improvement for individual documents and thus improves response times, e.g. for extraction services. Previous parallelization approaches focused only on an improved throughput for large document collections, e.g., by leveraging distributed instances of an IE system. Information extraction in the context of enterprise search differs for instance from the extraction from the World Wide Web by the fact that usually a variety of structured reference data (corporate databases or terminologies) is available, which often describes the relationships among entities. Furthermore, entity names in a business environment usually follow special characteristics: On the one hand relevant entities such as product identifiers follow certain patterns that are not always known beforehand, but can be inferred using known sample entities, so that unknown entities can be extracted. On the other hand many designators have a more descriptive character (concatenation of descriptive words). The respective references in texts might differ due to the diversity of potential descriptions, often making the identification of such entities difficult. To address IE applications in the presence of available structured data, we study in this work the inference of effective regular expressions from given sample entities. Various generalization and specialization heuristics are used to identify patterns at different syntactic abstraction levels and thus generate regular expressions which promise both high recall and precision. Compared to previous rule learning techniques in the field of information extraction, our technique does not require any annotated document corpus. A method for the identification of entities that are predefined by graph structured reference data is examined as a third contribution. An algorithm is presented which goes beyond an exact string comparison between text and reference data set. It allows for an effective identification and disambiguation of potentially discovered entities by exploitation of approximate matching strategies. The method leverages further relationships among entities for identification and disambiguation. The method presented in this work is superior to previous approaches with regard to precision and recall.
urn:nbn:de:kobv:517-opus-51409
5140
CCS-Klassifikation: D.2.13 Reu , D.2.11 Sof , D.2.2 Desi , D.1.3 Conc
ST 302
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Falk Brauer
deu
uncontrolled
Informationsextraktion
deu
uncontrolled
Enterprise Search
deu
uncontrolled
Parallele Datenverarbeitung
deu
uncontrolled
Grammatikalische Inferenz
deu
uncontrolled
Graph-basiertes Ranking
eng
uncontrolled
information extraction
eng
uncontrolled
enterprise search
eng
uncontrolled
multi core data processing
eng
uncontrolled
grammar inference
eng
uncontrolled
graph-based ranking
Datenverarbeitung; Informatik
open_access
Institut für Informatik und Computational Science
Hasso-Plattner-Institut für Digital Engineering gGmbH
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4887/brauer_diss.pdf
4888
2010
deu
doctoralthesis
1
2011-03-30
--
2011-02-22
GC-TOF-MS basierte Analyse von niedermolekularen Primär- und Sekundärmetaboliten agrarwirtschaftlich bedeutsamer Nutzpflanzen
GC-TOF-MS based metabolite profiling of low molecular weight primary and secondary metabolites of agricultural meaningful crops
Die Qualität von Nutzpflanzen ist von zahlreichen Einflussfaktoren wie beispielsweise Lagerbedingungen und Sorteneigenschaften abhängig. Um Qualitätsmängel zu minimieren und Absatzchancen von Nutzpflanzen zu steigern sind umfangreiche Analysen hinsichtlich ihrer stofflichen Zusammensetzung notwendig. Chromatographische Techniken gekoppelt an ein Massenspektrometer und die Kernspinresonanzspektroskopie wurden dafür bislang verwendet. In der vorliegenden Arbeit wurde ein Gaschromatograph an ein Flugzeitmassenspektrometer (GC-TOF-MS) gekoppelt, um physiologische Prozesse bzw. Eigenschaften (die Schwarzfleckigkeit, die Chipsbräunung, das Physiologische Alter und die Keimhemmung) von Nutzpflanzen aufzuklären. Als Pflanzenmodell wurde dafür die Kartoffelknolle verwendet. Dazu wurden neue analytische Lösungsansätze entwickelt, die eine zielgerichtete Auswertung einer Vielzahl von Proben, die Etablierung einer umfangreichen Referenzspektrenbibliothek und die sichere Archivierung aller experimentellen Daten umfassen. Das Verfahren der Probenvorbereitung wurde soweit modifiziert, dass gering konzentrierte Substanzen mittels GC-TOF-MS analysiert werden können. Dadurch wurde das durch die Probenvorbereitung limitierte Substanzspektrum erweitert. Anhand dieser Lösungsansätze wurden physiologisch relevante Stoffwechselprodukte identifiziert, welche indikativ (klassifizierend) bzw. prädiktiv (vorhersagend) für die physiologischen Prozesse sind. Für die Schwarzfleckigkeitsneigung und die Chipseignung wurde jeweils ein biochemisches Modell zur Vorhersage dieser Prozesse aufgestellt und auf eine Züchtungspopulation übertragen. Ferner wurden für die Schwarzfleckigkeit Stoffwechselprodukte des Respirationsstoffwechsels identifiziert sowie Aminosäuren, Glycerollipide und Phenylpropanoide für das Physiologische Alter als relevant erachtet. Das physiologische Altern konnte durch die Anwendung höherer Temperaturen beschleunigt werden. Durch Anwendung von Keimhemmern (Kümmelöl, Chlorpropham) wurde eine Verzögerung des physiologischen Alterns beobachtet. Die Applikation von Kümmelöl erwies sich dabei als besonders vorteilhaft. Kümmelöl behandelte Knollen wiesen im Vergleich zu unbehandelten Knollen nur Veränderungen im Aminosäure-, Zucker- und Sekundärstoffwechsel auf. Chlorpropham behandelte Knollen wiesen einen ähnlichen Stoffwechsel wie die unbehandelten Knollen auf. Für die bislang noch nicht identifizierten Stoffwechselprodukte wurden im Rahmen dieser Arbeit das Verfahren der „gezielten An-/Abreicherung“, der „gepaarten NMR/GC-TOF-MS Analyse“ und das „Entscheidungsbaumverfahren“ entwickelt. Diese ermöglichen eine Klassifizierung von GC-MS Signalen im Hinblick auf ihre chemische Funktionalität. Das Verfahren der gekoppelten NMR/GC-TOF-MS Analyse erwies sich dabei als besonders erfolgversprechend, da es eine Aufklärung bislang unbekannter gaschromatographischer Signale ermöglicht. In der vorliegenden Arbeit wurden neue Stoffwechselprodukte in der Kartoffelknolle identifiziert, wodurch ein wertvoller Beitrag zur Analytik der Metabolomik geleistet wurde.
Several factors influence the quality of crops. These include particular storage conditions and cultivar properties. Minimization of quality defects requires the employment of comprehensive metabolic analysis to enhance the marketing potential of crops. From this point of view chromatographic techniques coupled either with a mass spectrometer or the combination with nuclear magnetic resonance spectroscopy have been successfully applied to solve the main tasks. In the present work, a gas chromatograph was coupled to a time of flight mass spectrometer (GC-TOF-MS) to analyze physiological processes and attitudes of crops like black spot bruising, chips tanning, physiological aging, and sprouting inhibition. For this purpose the potato tuber was employed as a model plant. Therefore, new analytical approaches were developed comprising the targeted analysis of a multitude of samples, the establishment of a comprehensive mass spectral reference library and the built up of a secure archival storage system. Furthermore, the sample preparation protocol was modified to analyze trace components with the help of GC-TOF-MS as well. This helped to extend the discovery of more endogenous metabolites. These analytical approaches were required to identify physiological relevant indicative and predictive metabolites. Consequently, a biochemical model was build up for the process of black spot bruising and chips tanning respectively. These models could be applied to an unknown breeding progeny. Metabolites of the respiratory chain were identified as relevant for the process of black spot bruising whereas amino acids, lipids and phenylpropanoids were of high importance for the process of physiological aging. The process of physiological aging could be accelerated while applying higher temperatures and could be delayed while applying sprouting inhibitors, like caraway oil and chlorpropham. Compared to chlorpropham, caraway oil exhibited more advantages with respect to storage attitudes although it caused significant changes in the amino acid, sugar and secondary metabolism during a common storage period. However, the chlorpropham treated tubers showed a similar phenotype in comparison to the control tubers. In addition, several methods were developed with respect to the classification of yet unidentified signals. These cover the decision tree process, the targeted enrichment and depletion of specific metabolites with the help of solid phase extraction and the paired NMR and GC-MS analyses. The paired NMR and GC-MS analysis appears very promising because it allows for the identification of unknown GC-MS signals. Thus, this work makes a valuable contribution to the analytics of the metabolome, as new metabolites could be identified which are of physiological relevance for the potato tuber.
urn:nbn:de:kobv:517-opus-51238
5123
WN 8650
WN 4600
VG 9807
VG 7407
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Nadine Strehmel
deu
uncontrolled
Stoffwechselprodukt
deu
uncontrolled
Kartoffelknolle
deu
uncontrolled
Identifizierung
deu
uncontrolled
analytische Lösungsansätze
deu
uncontrolled
Biomarker
eng
uncontrolled
metabolite
eng
uncontrolled
potato tuber
eng
uncontrolled
identification
eng
uncontrolled
analytical approaches
eng
uncontrolled
biomarker
Biowissenschaften; Biologie
open_access
Institut für Biochemie und Biologie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4888/strehmel_diss.pdf
4983
2010
deu
134
book
Universitätsverlag Potsdam
Potsdam
1
2011-04-20
--
--
Die Gasversorgung Europas
Die Abhängigkeit der EU von Russlands Gaslieferungen sowie die Zuverlässigkeit des Transitlandes Ukraine ist hochgradig umstritten. Für den Politikwissenschaftler Jacopo Pepe, zeigen sich dabei jedoch keine existentiellen Bedrohungen für die Versorgungssicherheit Europas, sondern konstruierte Diskurse. Er argumentiert, dass es sich hier nicht um geopolitisches sondern um ein ökonomisches Problem handelt. Dieses wurzelt in dem ukrainisch-russisch Gasgeschäft der 1990er Jahre. Geopolitische Fragen und belastete politischen Beziehungen haben die Krise zugespitzt und die russische Reaktion verschärft. Erst so konnte das Umfeld für einen „Securitization“ Diskurs entstehen, der mit geostrategischen Zielen der USA übereinstimmt. Die Lösung muss sowohl (geo)ökonomisch als auch geopolitisch erfolgen: Geoökonomisch, durch die Gründung eines europäisch-russisch-ukrainischen Konsortium für die Verwaltung des International Transport System der Ukraine; geopolitisch durch eine kooperative Neuvermessung des Verhältnisses der EU mit Russland. Nur dadurch kann ein erneutes Scheitern der Gasversorgung Europas verhindert werden.
Das Dreieck EU – Russland – Ukraine zwischen Geopolitik und Geoökonomie
urn:nbn:de:kobv:517-opus-50235
5023
978-3-86956-098-4
<hr>Zugleich in Printform erschienen im <a href="http://info.ub.uni-potsdam.de/verlag.htm" target=_blanc> Universitätsverlag Potsdam </a>:<br><br>Pepe, Jacopo Maria: Die Gasversorgung Europas : das Dreieck EU - Russland - Ukraine zwischen Geopolitik und Geoökonomie / Jacopo Maria Pepe. - Potsdam : Universitätsverlag Potsdam, 2010. - 134 S. : Kt.. (Horizonte 21 : Umwelt - Energie - Sicherheit ; 3) <br>ISBN 978-3-86956-098-4<br>--> <a href="http://info.ub.uni-potsdam.de/cgi-bin/publika/view.pl?id=618" target=_blanc>Bestellen</a>
MB 1100
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Jacopo Maria Pepe
Horizonte 21 : Umwelt · Energie · Sicherheit
3
Politikwissenschaft
open_access
WeltTrends e.V. Potsdam
Referiert
Open Access
Universitätsverlag Potsdam
Horizonte 21
Universität Potsdam
Universitätsverlag Potsdam
https://publishup.uni-potsdam.de/files/4983/hor21_03.pdf
4974
2010
deu
doctoralthesis
1
2011-04-13
--
2011-03-18
Synthese und Charakterisierung von phosphoreszenten Terpolymeren und nichtkonjugierten Matrixpolymeren für effiziente polymere Leuchtdioden
Synthesis and characterization of phosphoreszent terpolymers and nonconjugated matrixpolymers for efficient polymer light emitting diodes
Mit Seitenkettenpolystyrenen wurde ein neues Synthesekonzept für phosphoreszente polymere LED-Materialien aufgestellt und experimentell verifiziert. Zunächst erfolgten auf Grundlage strukturell einfacher Verbindungen Untersuchungen zum Einfluss von Spacern zwischen aktiven Seitengruppen und dem Polystyrenrückgrat. Es wurden Synthesemethoden für die Monomere etabliert, durch die aktive Elemente - Elektronen- und Lochleiter - mit und ohne diesen Spacer zugänglich sind. Durch Kombination dieser Monomere waren unter Hinzunahme von polymerisierbaren Iridium-Komplexen in unterschiedlicher Emissionswellenlänge statistische Terpolymere darstellbar. Es wurde gezeigt, dass die Realisierung bestimmter Verhältnisse zwischen Loch-, Elektronenleiter und Triplettemitter in ausreichender Molmasse möglich ist. Die Glasstufen der Polymere zeigten eine deutliche Strukturabhängigkeit. Auf die Lage der Grenzorbitale übten die Spacer nahezu keinen Einfluss aus. Die unterschiedlichen Makromoleküle kamen in polymeren Licht emittierenden Dioden (PLEDs) zum Einsatz, wobei ein deutlicher Einfluss der Spacereinheiten auf die Leistungscharakteristik der PLEDs festzustellen war: Sowohl Effizienz, Leuchtdichte wie auch Stromdichte waren durch den Einsatz der kompakten Makromoleküle ohne Spacer deutlich höher. Diese Beobachtungen begründeten sich hauptsächlich in der Verwendung der aliphatischen Spacer, die den Anteil im Polymer erhöhten, der keine Konjugation und damit elektrisch isolierende Eigenschaften besaß. Diese Schlussfolgerungen waren mit allen drei realisierten Emissionsfarben grün, rot und blau verifizierbar. Die besten Messergebnisse erzielte eine PLED aus einem grün emittierenden und spacerlosen Terpolymer mit einer Stromeffizienz von etwa 28 cd A-1 (bei 6 V) und einer Leuchtdichte von 3200 cd m-2 (bei 8 V). Ausgehend von obigen Ergebnissen konnten neue Matrixmaterialien aus dem Bereich verdampfbarer Moleküle geringer Molmasse in das Polystyrenseitenkettenkonzept integriert werden. Es wurden Strukturvariationen sowohl von loch- wie auch von elektronenleitenden Verbindungen als Homopolymere dargestellt und als molekular dotierte Systeme in PLEDs untersucht. Sieben verschiedene lochleitende Polymere mit Triarylamin-Grundkörper und drei elektronendefizitäre Polymere auf der Basis von Phenylbenzimidazol konnten erfolgreich in den Polymeransatz integriert werden. Spektroskopische und elektrochemische Untersuchungen zeigten kaum eine Veränderung der Charakteristika zwischen verdampfbaren Molekülen und den dargestellten Makromolekülen. Diese ladungstransportierenden Makro-moleküle wurden als polymere Matrizes molekular dotiert und lösungsbasiert zu Einschicht-PLEDs verarbeitet. Als aussichtsreichstes Lochleiterpolymer dieser Reihe, mit einer Strom-effizenz von etwa 33 cd A-1 (bei 8 V) und einer Leuchtdichte von 6700 cd m-2 (bei 10 V), stellte sich ein Triarylaminderivat mit Carbazolsubstituenten heraus. Als geeignetstes Matrixmaterial für die Elektronenleitung wurde ein meta-verknüpftes Di-Phenylbenzimidazol ausfindig gemacht, das in der PLED eine Stromeffizienz von etwa 20 cd A-1 (bei 8 V) und eine Leuchtdichte von 7100 cd m-2 (bei 10 V) erzielte. Anschließend wurden die geeignetsten Monomere zu Copolymeren kombiniert: Die lochleitende Einheit bildete ein carbazolylsubstituiertes Triarylamin und die elektronen-leitende Einheit war ein disubstituiertes Phenylbenzimidazol. Dieses Copolymer diente im Folgenden dazu, PLEDs zu realisieren und die Leistungsdaten mit denen eines Homopolymer-blends zu vergleichen, wobei der Blend die bessere Leistungscharakteristik zeigte. Mit dem Homopolymerblend waren Bauteileffizienzen von annähernd 30 cd A-1 (bei 10 V) und Leuchtdichten von 6800 cd m-2 neben einer Verringerung der Einsatzspannung realisierbar. Für die abschließende Darstellung bipolarer Blockcopolymere wurde auf die Nitroxid-vermittelte Polymerisation zurückgegriffen. Mit dieser Technik waren kontrollierte radikalische Polymersiationen mit ausgewählten Monomeren in unterschiedlichen Block-längen durchführbar. Diese Blockcopolymere kamen als molekular dotierte Matrizes in phosphoreszenten grün emittierenden PLEDs zum Einsatz. Die Bauteile wurden sowohl mit statistischen Copolymeren, wie auch mit Homopolymerblends in gleicher Zusammensetzung aber unterschiedlichem Polymerisationsgrad hinsichtlich der Leistungscharakteristik verglichen. Kernaussage dieser Untersuchungen ist, dass hochmolekulare Systeme eine bessere Leistungscharakteristik aufweisen als niedermolekulare Matrizes. Über Rasterkraft-mikroskopie konnte eine Phasenseparation in einem Größenbereich von etwa 10 nm für den hochmolekularen Homopolymerblend nachgewiesen werden. Für die Blockcopolymere war es nicht möglich eine Phasenseparation zu beobachten, was vorwiegend auf deren zu geringe Blocklänge zurückgeführt wurde.
A new synthetic approach for the synthesis of side chain polystyrenes was established and their use as phosphorescent polymers for polymer light emitting diodes (PLEDs) is shown by experiments. An assay was introduced to clarify influences on electroluminescent behavior for RGB-colored phosphorescent terpolymers with N,N-Di-p-tolyl-aniline as hole-transporting unit, 2-(4-biphenyl)-5-(4-tert-butylphenyl)-1,3,4-oxadiazole (tert-BuPBD) as electron-transporting unit, and different iridium complexes in RGB-colors as triplet emitting materials. All monomers were attached with spacer moieties to the “para” position of a polystyrene. PLEDs were built to study the electro-optical behavior of these materials. The gist was a remarkable influence of hexyl-spacer units to the PLED performance. For all three colors only very restricted PLED performances were found. In comparison RGB-terpolymers were synthesized with directly attached charge transport materials to the polymer backbone. For this directly linked systems efficiencies were 28 cd A−1 @ 6 V (green), 4.9 cd A−1 @ 5 V (red) and 4.3 cd A−1 @ 6 V (bluish). In summary it is assumed that an improved charge percolation pathways regarding to the higher content of semiconducting molecules and an improved charge transfer to the phosphorescent dopand in the case of the copolymers without spacers are responsible for the better device performance comparing the copolymers with hexyl spacers. It was found that the approach of the directly connected charge transport materials at the nonconjugated styrene polymer backbone is favored for further investigations as shown in the following. A series of styrene derived monomers with triphenylamine-based units, and their polymers have been synthesized and compared with the well-known structure of polymer of N,N′-bis(3-methylphenyl)-N,N′-diphenylbenzidine with respect to their hole-transporting behavior in PLEDs. A vinyltriphenylamine structure was selected as a basic unit, functionalized at the para positions with the following side groups: diphenylamine, 3-methylphenyl-aniline, 1- and 2-naphthylamine, carbazole, and phenothiazine. The polymers are used in PLEDs as host polymers for blend systems. It is demonstrated that two polymers are excellent hole-transporting matrix materials for these blend systems because of their good overall electroluminescent performances and their comparatively high glass transition temperatures. For the carbazole-substituted polymer (Tg = 246 °C), a luminous efficiency of 35 cd A−1 and a brightness of 6700 cd m−2 at 10 V is accessible. The phenothiazine-functionalized polymer (Tg = 220 °C) shows nearly the same outstanding PLED behavior. Hence, both these polymers outperform the well-known polymer of N,N′-bis(3-methylphenyl)-N,N′-diphenylbenzidine, showing only a luminous efficiency of 7.9 cd A−1 and a brightness of 2500 cd m−2 (10 V). Furthermore, novel styrene functionalized monomers with phenylbenzo[d]imidazole units and the corresponding homopolymers are prepared. The macromolecules are used as matrices for phosphorescent dopants to prepare PLEDs. The devices exhibit current efficiencies up to 38.5 cd A−1 at 100 cd m−2 and maximum luminances of 7400 cd m−2 at 10 V. Afterwards the most efficient monomers of this investigations were combined and statistical copolymers were synthesized. As hole-transporting monomer the carbazole substituted triarylamine and as electron-transporting monomer a disubstituted phenylbenzoimidazole was selected. This statistical copolymer was used in the following as matrix material for phosporescent PLEDs and the device performance was compared with a matrix system of a polymer blend matrix system of corresponding homopolymers. With this homopolymer blend efficiencies of about 30 cd A-1 at 10 V and luminances of 6800 cd m-2 beside a decreased onset voltage were realized. Finally bipolar blockcopolymers of structural basic monomers were synthesized via nitroxide mediated polymerization. With these technique and the chosen hole- and electron-transporting monomers a controlled radical polymerization was realized leading to blockcopolymers in different block lengths. These blockcopolymers were used as molecular doped matrix systems in green phosphoreszent PLEDs. The devices were compared in regard to their performances with PLEDs made of statistical copolymers and homopolymer blends. It was found that high molecular systems show a better device performance compared to low molecular polymer matrices. With atomic force microscopy it is shown that a phase separation takes place for the high molecular blend of homopolymers. For the synthesized blockcopolymers no phase separation could be verified, mainly because of the comparatively low molecular weight of these systems.
urn:nbn:de:kobv:517-opus-51709
5170
VN 5070
VN 5907
VK 8007
Manuel Wolfram Thesen
deu
uncontrolled
phosphoreszente Terpolymere
deu
uncontrolled
Elektrolumineszenz
deu
uncontrolled
organische Licht emittierende Diode
deu
uncontrolled
Ladungstransport
deu
uncontrolled
bipolare Blockcopolymere
eng
uncontrolled
phosphorescent Terpolymers
eng
uncontrolled
electroluminsecence
eng
uncontrolled
organic light emitting diode
eng
uncontrolled
charge transport
eng
uncontrolled
bipolar blockcopolymers
Chemie und zugeordnete Wissenschaften
open_access
Institut für Chemie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4974/thesen_diss.pdf
4979
2010
deu
doctoralthesis
1
2011-04-15
--
2011-02-04
Optische Spektroskopie zum Nachweis von Schimmelpilzen und deren Mykotoxine
Optical spectroscopy for the determination of mould and mycotoxins
Gesunde sowie qualitativ hochwertige Nahrungsmittel sind wichtige Voraussetzungen, um einerseits die Lebensmittelsicherheit entlang der Wertschöpfungskette (Wachstum, Verarbeitung, Lagerung und Transport) und andererseits einen vorbeugenden Verbraucherschutz zu gewährleisten. Die Belastung der Nahrung mit Rückständen jeglicher Art war in letzter Zeit häufig Mittelpunkt heftiger öffentlicher Diskussionen. Zahlreiche Untersuchungen haben gezeigt, dass unter bestimmten Bedingungen durch Pilze gebildete Giftstoffe, so genannte Mykotoxine, die Ernteprodukte belasten und es bei deren Verzehr durch Menschen oder Tiere zu Vergiftungen kommen kann. Die FAO schätzt, dass etwa 25% der Weltproduktion von Nahrungsmitteln mit Mykotoxinen kontaminiert und in 20% der Getreideernte der Europäischen Union messbare Konzentrationen an Mykotoxinen detektierbar sind. Damit die Lebensmittelsicherheit weiterhin gewährleistet bleibt, werden neben den Routinemethoden schnellere und zerstörungsfreie Methoden benötigt, um die Lebensmittel direkt vor Ort auf Schimmelpilze und deren Mykotoxine zu untersuchen. In dieser Arbeit wird das Potenzial von ausgewählten optisch-basierten spektroskopischen Methoden für die in-situ bzw. in-line Detektion von Schimmelpilzen sowie Mykotoxinen in Getreide(produkten) untersucht. Es werden Absorptions- und Reflexionsmethoden einerseits und Fluoreszenztechniken andererseits eingesetzt. Die spektroskopischen Methoden werden dabei auf Proben unterschiedlicher Komplexität angewandt - beginnend mit der Untersuchung der photophysikalischen Eigenschaften der reinen Mykotoxine in Lösung über künstlich mit verschiedenen Mykotoxinen kontaminierten Getreideproben bis hin zu mit Pilzen befallenem Getreide und hochveredelte Lebensmittel (Wein und Bier) als Proben höchster Komplexität.
Problems of food safety have led to an increasing concern regarding contamination of foods and feeds with mycotoxins and the relevant toxigenic fungi, mainly Aspergillus, Penicillium and Fusarium genera. There is a real need for rapid, sensitive and inexpensive sensors for the detection of toxigenic fungi and mycotoxins, both in the field and after harvest in order to obtain real-time monitoring data on contamination and this assist in food safety assessment. This will result in an enormous cost saving to the farmers as well as to agro-food industry through the prevention and reduction of product recalls and reduced treatment costs. The German Ministry of Education and Research (BMBF) has provided funding of more than 1.9 million Euros from July 2006 to December 2009 for the large joint project "ProSeso.net2" on the development of innovative sensor-based techniques and processes in the field of food quality and safety. In this research-project "Exploration of sustainability potentials by use of sensor-based technologies and integrated assessment models in the production chain of plant related food" 13 partners from universities, non-university institutions and industry cooperate within seven subprojects. The expected results shall contribute to maintain freshness and improve safety of the food production chain. In the subproject “Indicators and sensor technology for the identification of mycotoxin producing fungi in the processing of grain” spectroscopic methods are tested for in-situ and in-line detection of moulds and/or mycotoxins. This presentation focuses on some possible spectroscopic methods for the rapid detection of mycotoxins and fungi on grains. Methods based on one- and two-photon-induced fluorescence spectroscopy are highly attractive because of their outstanding sensitivity and selectivity. In order to utilize a fluorescence technique for the analysis of the mycotoxins in food and feedstuff as well as for basic research on the fungal metabolism, the photochemistry and photophysics of the mycotoxins and fungi need to be elucidated in detail, especially the influence of solvent parameters such as polarity and pH value. Consequently, for a sensitive and selective spectroscopic analysis, it is indispensable to take the specific photophysic of the known mycotoxins into account in order to minimize serious limitations upon sensitivity, selectivity, and accuracy of a potential fluorescence-based sensing application. The spectroscopic techniques are complemented by chemometric tools (Principle Component Analysis) to extract the desired chemical information, e.g. with respect to presence of contaminations. The combination of data obtained from different spectroscopic methods (such as optimal excitation and emission wavelength, fluorescence decay times, and fluorescence quantum efficiency) on the one hand side and NIR spectroscopy on the other side shows promising results for the qualitative as well as quantitative identification of mycotoxins grains. Moreover, NIR reflectance spectra yield additional information on ingredients, moisture content, and the presence (or absence) of fungi in the sample.
urn:nbn:de:kobv:517-opus-50746
5074
VG 9457
VG 8757
VN 8407
VG 5070
Claudia Rasch
deu
uncontrolled
Mykotoxine
deu
uncontrolled
Schimmelpilze
deu
uncontrolled
Fluoreszenz
deu
uncontrolled
Chemometrie
deu
uncontrolled
Zweiphotonenanregung
eng
uncontrolled
mycotoxins
eng
uncontrolled
mould
eng
uncontrolled
fluorescence
eng
uncontrolled
chemometrics
eng
uncontrolled
Two-Photon-Absorption
Chemie und zugeordnete Wissenschaften
open_access
Institut für Chemie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4979/rasch_diss.pdf
5757
2010
deu
masterthesis
1
2012-05-22
--
--
Der Einfluss der Informationsstruktur auf das Verständnis von Aktiv- und Passivsätzen im ungestörten Spracherwerb
The influcene of information structure on German-speaking children's comprehension of active and passive sentences
Kinder erwerben Passivstrukturen später als die meisten anderen syntaktischen Strukturen. Die vorliegende Studie beschäftigt sich mit der Frage, ob dies auf informationsstrukturelle Faktoren zurückzuführen sein könnte. Probleme beim Erwerb von Passivsätzen wurden in vorhergehenden Studien unter anderem auf ihre geringe Inputfrequenz oder bestimmte syntaktische Charakteristika von Passivsätzen zurückgeführt. Jedoch konnte bisher keiner dieser Ansätze ihr spätes Erwerbsalter umfassend erklären. Während Aktivsätze, die kanonische, unmarkierte Satzstruktur im Deutschen, in jeglichem Diskurskontext verwendet werden können, werden Passivsätze fast ausschließlich dann verwendet, wenn der Patiens der beschriebenen Handlung schon vorerwähnt war und/ oder als Topik eines Satzes fungieren soll. Passivsätze sind also nicht in jedem Kontext informationsstrukturell adäquat. Kinder haben im Gegensatz zu Erwachsenen aufgrund ihrer geringeren syntaktischen Fähigkeiten Probleme, Sätze zu verarbeiten, die nicht in einem adäquaten Kontext stehen. Der Einfluss dieser Kontextbedingungen auf das Satzverständnis wurde in der vorliegenden Studie bei deutschsprachigen Kindern untersucht. Kindern zwischen 3;0 und 4;11 Jahren wurden Aktiv- oder Passivsätze präsentiert, denen informationsstrukturell adäquate, inadäquate oder neutrale Kontextsätze vorangingen. Wie erwartet verstanden die Kinder Aktivsätze besser als Passivsätze und 4-jährige Kinder zeigten bessere Leistungen als 3-jährige. Es gab Tendenzen, dass die 3-jährigen Kinder Passivsätze besser, aber Aktivsätze schlechter verstanden, wenn ihr Subjekt vorerwähnt wurde. Statistisch signifikante Kontexteffekte fanden sich jedoch im Gegensatz zu einer vergleichbaren Studie mit englischsprachigen Kindern (Gourley und Catlin, 1978) in keiner Testbedingung. Außerdem zeigte sich, dass die Kinder Passivsätze insgesamt besser und Aktivsätze insgesamt schlechter verstanden als englischsprachige Kinder in anderen Studien. Die Ergebnisse werden mit dem Competition Modell (Mac Whinney und Bates, 1987) und einer Sprachverarbeitungstheorie von Stromswold (2002) erklärt. Außerdem wird diskutiert, warum die deutschsprachigen Kinder in der vorliegenden Studie andere Sprachverständnisleistungen zeigten als englischsprachige Kinder.
Children acquire passive constructions later than most other syntactic structures. The purpose of the present study was to investigate whether this phenomenon can be explained with an information-structural account. In former studies problems in the acquisition of the passive voice have often been attributed to its low input frequency or to its specific syntactic characteristics. However, none of these theories could sufficiently explain the late age of acquisition of passive structures. Sentences in the active voice, the canonical, unmarked, structure in German can be used in any discourse context while passive sentences are almost always used if the patient of the described action is GIVEN in the context and/ or serves as the TOPIC of the sentence. Therefore passive sentences cannot be used in any context without violating information structural constraints. It is more difficult for children – due to their less developed syntactic abilities – than for adults to process sentences which do not occur in an information structurally appropriate context. The present study examines the influence of the context on sentence comprehension abilities of German speaking children. Children at the age of 3;0 – 4;11 years were presented active or passive sentences in an information structurally appropriate, inappropriate or neutral context. As expected, children comprehended active sentences better than passive sentences, and 4-year olds performed better than 3-year olds. There was a tendency that 3-year olds comprehended passive sentences better but active sentences worse if the subject of the sentence was GIVEN in the context. However, there were no statistically significant context effects, in contrast to a similar study with English-speaking children (Gourley and Catlin, 1978). In addition, it could be shown that German-speaking children comprehended passive sentences better than English-speaking children in other studies. The results are explained with the Competition Model (Mac Whinney and Bates, 1987) and Stromswold’s (2002) theory of language processing. It is also discussed why German-speaking children showed different language comprehension abilities than English-speaking children.
urn:nbn:de:kobv:517-opus-59563
5956
ER 920
Miriam Meinhardt
deu
uncontrolled
Passiv
deu
uncontrolled
Spracherwerb
deu
uncontrolled
Informationsstruktur
deu
uncontrolled
Vorerwähntheit
deu
uncontrolled
Grammatikerwerb
eng
uncontrolled
Passive voice
eng
uncontrolled
Language Acquisition
eng
uncontrolled
Information Structure
eng
uncontrolled
Givenness
eng
uncontrolled
Grammar Acqiuisition
Sprache
open_access
Department Linguistik
Institut für Linguistik / Allgemeine Sprachwissenschaft
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/5757/meinhardt_diplom.pdf
5812
2010
eng
habilitation
1
2012-07-18
--
2010-12-08
Empirical studies on tax distribution and tax reform in Germany
Empirische Studien zu Steuerlastverteilung und Steuerreformen in Deutschland
This professorial dissertation thesis collects several empirical studies on tax distribution and tax reform in Germany. Chapter 2 deals with two studies on effective income taxation, based on representative micro data sets from tax statistics. The first study analyses the effective income taxation at the individual level, in particular with respect to the top incomes. It is based on an integrated micro data file of household survey data and income tax statistics, which captures the entire income distribution up to the very top. Despite substantial tax base erosion and reductions of top tax rates, the German personal income tax has remained effectively progressive. The distribution of the tax burden is highly concentrated and the German economic elite is still taxed relatively heavily, even though the effective tax rate for this group has significantly declined. The second study of Chapter 2 highlights the effective income taxation of functional income sources, such as labor income, business and capital income, etc. Using income tax micro data and microsimulation models, we allocate the individual income tax liability to the respective income sources, according to different apportionment schemes accounting for losses. We find that the choice of the apportionment scheme markedly affects the tax shares of income sources and implicit tax rates, in particular those of capital income. Income types without significant losses such as labor income or transfer incomes show higher tax shares and implicit tax rates if we account for losses. The opposite is true for capital income, in particular for income from renting and leasing. Chapter 3 presents two studies on business taxation, based on representative micro data sets from tax statistics and the microsimulation model BizTax. The first part provides a study on fundamental reform options for the German local business tax. We find that today’s high concentration of local business tax revenues on corporations with high profits decreases if the tax base is broadened by integrating more taxpayers and by including more elements of business value added. The reform scenarios with a broader tax base distribute the local business tax revenue per capita more equally across regional categories. The second study of Chapter 3 discusses the macroeconomic performance of business taxation against the background of corporate income. A comparison of the tax base reported in tax statistics with the macroeconomic corporate income from national accounts gives hints to considerable tax base erosion. The average implicit tax rate on corporate income was around 20 percent since 2001, and thus falling considerably short of statutory tax rates and effective tax rates discussed in the literature. For lack of detailed accounting data it is hard to give precise reasons for the presumptive tax base erosion. Chapter 4 deals with several assessment studies on the ecological tax reform implemented in Germany as of 1999. First, we describe the scientific, ideological, and political background of the ecological tax reform. Further, we present the main findings of a first systematic impact analysis. We employ two macroeconomic models, an econometric input-output model and a recursive-dynamic computable general equilibrium (CGE) model. Both models show that Germany’s ecological tax reform helps to reduce energy consumption and CO2 emissions without having a substantial adverse effect on overall economic growth. It could have a slightly positive effect on employment. The reform’s impact on the business sector and the effects of special provisions granted to agriculture and the goods and materials sectors are outlined in a further study. The special provisions avoid higher tax burdens on the energy-intensive production. However, they widely reduce the marginal tax rates and thus the incentives to energy saving. Though the reform of special provisions 2003 increased the overall tax burden of the energy-intensive industry, the enlarged eligibility for tax rebates neutralizes the ecologic incentives. Based on the Income and Consumption Survey of 2003, we have analyzed the distributional impact of the ecological tax reform. The increased energy taxes show a clear regressive impact relative to disposable income. Families with children face a higher tax burden relative to household income. The reduction of pension contributions and the automatic adjustment of social security transfers widely mitigate this regressive impact. Households with low income or with many children nevertheless bear a slight increase in tax burden. Refunding the eco tax revenue by an eco bonus would make the reform clearly progressive.
Diese Habilitationsschrift fasst verschiedene empirische Studien zu Steuerlastverteilung und Steuerreformen in Deutschland zusammen. In Kapitel 2 werden zwei Studien zur effektiven Einkommensteuerbelastung dargestellt. Die erste Studie analysiert die effektive Einkommensteuerbelastung auf der persönlichen Ebene, insbesondere bei Personen mit hohen Einkommen. Grundlage der Analyse ist ein integrierter Mikrodatensatz aus Haushaltserhebungen und Steuerstatistik, der die vollständige Einkommensverteilung zuverlässig abbildet. Trotz erheblicher Steuerbegünstigungen und Senkungen der Spitzensteuersätze wirkt die deutsche Einkommensteuer klar progressiv, auch wenn die Belastung der Top-Verdiener in den letzten Jahren deutlich gesunken ist. Die zweite Studie in Kapitel 2 analysiert die effektive Einkommensteuerbelastung von verschiedenen funktionalen Einkommensquellen. Auf Grundlage von steuerstatistischen Mikrodaten und Mikrosimulationsmodellen analysieren wir die Anteile der Einkunftsarten an der Steuerbelastung für verschiedene Aufteilungsregeln unter Berücksichtigung von Verlusten. Die Wahl der Aufteilungsregel wirkt sich spürbar auf den Steueranteil und die impliziten Steuersätze von Einkommensarten aus, wenn Verluste berücksichtigt werden, vor allem bei den Vermögenseinkommen. Kapitel 3 enthält zwei Studien zur Unternehmensbesteuerung, die auf repräsentativen Einzeldatensätzen der Steuerstatistik und dem Mikrosimulationsmodell BizTax basieren. Zunächst wird eine Mikrosimulationsanalyse zu grundlegenden Reformmodellen für die Gewerbesteuer vorgestellt. Die Ergebnisse zeigen, dass die starke Konzentration des Gewerbesteueraufkommens auf die Unternehmen mit höheren Gewinnen deutlich vermindert werden kann, wenn die Bemessungsgrundlagen verbreitert werden, durch Einbeziehung aller Unternehmen und eine Ausweitung auf weitere Komponenten der betrieblichen Wertschöpfung. Diese Reformszenarien verteilen das Steueraufkommen je Einwohner deutlich gleichmäßiger über die Regionen. In der zweiten Studie des Kapitels 3 analysieren wir das Unternehmensteueraufkommen vor dem Hintergrund der gesamtwirtschaftlichen Unternehmensgewinne. Ein Vergleich der steuerlichen Bemessungsgrundlagen mit den entsprechenden Unternehmensgewinnen der Volkswirtschaftlichen Gesamtrechnungen ergibt eine beträchtliche Besteuerungslücke. Die durchschnittliche effektive Unternehmensteuerbelastung dürfte sich seit 2001 um 20 Prozent bewegt haben. Dies ist deutlich niedriger als die nominalen tariflichen Steuersätze und die effektiven Steuersätze, die in der Literatur ermittelt werden. Mangels detaillierter statistischer Erfassung der steuerlichen Gewinnermittlung ist es derzeit nicht möglich, diese Besteuerungslücke genauer aufzuklären. In Kapitel 4 werden verschiedene Studien zur ökologischen Steuerreform dargestellt. Zunächst werden die wissenschaftlichen, ideologischen und politischen Hintergründe dieser Reform erläutert. Danach wird eine erste systematische Wirkungsanalyse dargestellt. Dabei werden zwei makroökonomische Modelle eingesetzt, ein ökonometrisches Input-Output-Modell und ein empirisches rekursiv-dynamisches allgemeines Gleichgewichtsmodell. Die Ergebnisse zeigen, dass die ökologische Steuerreform den Energieverbrauch und die CO2-Emissionen spürbar senken kann, ohne dass dies nennenswerte Wachstumseinbußen nach sich ziehen würde. Ferner löst die Reform leicht positive Beschäftigungseffekte aus. Die Wirkungen der ökologischen Steuerreform nach Wirtschaftsbereichen und die Wirkungen der Steuervergünstigungen für Landwirtschaft und Produzierendes Gewerbe werden in einer weiteren Studie analysiert. Die Steuervergünstigungen vermeiden höhere Belastungen in den energieintensiven Produktionsbereichen. Zugleich reduzieren sie die Grenzbelastungen und somit die Anreize zum Energiesparen in diesen Branchen weitgehend. Die Reform der Steuervergünstigungen hat zwar die Belastungen für die energieintensive Wirtschaft seit 2003 erhöht. Die zusätzlichen Anreizwirkungen wurden aber durch die Ausweitung des „Spitzenausgleichs“ konterkariert. Die Effekte der ökologischen Steuerreform auf die Einkommensverteilung wurden auf Grundlage der Einkommens- und Verbrauchsstichprobe 2003 untersucht. Die erhöhten Energiesteuern wirken klar regressiv bezogen auf das verfügbare Einkommen. Familien mit Kindern werden relativ stärker belastet. Die Senkung der Rentenbeiträge und die automatische Anpassung von Sozialleistungen mildern die regressive Belastungswirkung. Bei Haushalten mit niedrigen Einkommen oder bei Familien mit vielen Kindern bleiben jedoch Nettobelastungen bestehen. Eine Rückerstattung des Ökosteueraufkommens durch einen „Ökobonus“ würde die gesamten Verteilungswirkungen der Reform deutlich progressiv machen.
urn:nbn:de:kobv:517-opus-60289
6028
JEL-Klassifikation: D31 , D33 , H24 , H25 , H55
QL 400
QL 800
PP 3305
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Stefan Bach
deu
uncontrolled
Steuerlastverteilung
deu
uncontrolled
Steuerreform
deu
uncontrolled
Mikrosimulation
deu
uncontrolled
Evaluierung der Steuerpolitik
eng
uncontrolled
Tax distribution
eng
uncontrolled
tax reform
eng
uncontrolled
microsimulation
eng
uncontrolled
tax policy evaluation
Wirtschaft
open_access
Wirtschaftswissenschaften
Universität Potsdam
https://publishup.uni-potsdam.de/files/5812/bach_habil.pdf
5021
2010
deu
masterthesis
1
2011-05-06
--
--
Ausagieren von Sätzen versus Satz-Bild-Zuordnung : Vergleich zweier Methoden zur Untersuchung des Sprachverständnisses anhand von semantisch reversiblen Sätzen mit Objektvoranstellung bei drei- und fünfjährigen Kindern
Act-out versus picture selection : comparison of two methods for the assessment of receptive language abilities using semantically reversible sentences with object fronting in three and five-year-old children
Sprachverständnisuntersuchungen sind sowohl für die Forschung zum Spracherwerb und zu dessen Störungen als auch für die Diagnostik in der klinischen Praxis von essentieller Bedeutung. Zwei der verbreitetesten Methoden zur Erfassung des Verständnisses von syntaktischen Strukturen sind das Ausagieren von Sätzen (AS) und die Satz-Bild-Zuordnung (SBZ). Beide Methoden sind mit unterschiedlichen Anforderungen an die Probanden sowie mit spezifischen Vor- und Nachteilen verbunden (vgl. z.B. Goodluck 1996, Gerken & Shady 1996), woraus sich die Frage ergibt, inwiefern die Wahl der Methode das Testergebnis und die damit verbundenen Schlussfolgerungen beeinflusst. In der hier beschriebenen empirischen Untersuchung wurden die AS- und die SBZ-Methode anhand des Verstehens semantisch reversibler Sätze mit Objektvoranstellung direkt miteinander verglichen: Jeweils 24 monolingual mit Deutsch als Muttersprache aufwachsenden, sprachunauffälligen Kindern im Alter von 3;0 bis 3;5 bzw. 5;0 bis 5;5 Jahren wurden insgesamt zwölf Items, von denen neun aus semantisch reversiblen Sätzen mit Objektvoranstellung und drei aus entsprechenden subjektinitialen Kontrastsätzen bestanden, sowohl mittels der AS-Methode als auch mittels der SBZ-Methode präsentiert. Zum Ausagieren der Testsätze (AS-Test) wurden Spielzeugfiguren verwendet, für die Satz-Bild-Zuordnung (SBZ-Test) wurden pro Item ein Ziel- und zwei Ablenkerbilder erstellt. Die kindlichen Reaktionen wurden nach syntaktischen Kriterien als korrekt bzw. inkorrekt bewertet, Abweichungen wurden hinsichtlich der Fehlerart klassifiziert. Zusätzlich wurde bei den einzelnen Kindern der Erwerbsstand der untersuchten Struktur beurteilt und es wurden, sofern möglich, die eingesetzten Sprachverständnisstrategien ermittelt. Der Vergleich der Methoden ergab für die einzelnen Altersgruppen sehr unterschiedliche Befunde: Bei den 3;0- bis 3;5-jährigen Kindern zeigten sich im SBZ-Test teilweise starke Rateeffekte, die zu verfälschten Ergebnissen und kaum interpretierbaren Reaktionsmustern führten, während dies im AS-Test nicht der Fall war. Für diese Altersgruppe ist demnach die AS-Methode als die geeignetere anzusehen. Bei den 5;0- bis 5;5-jährigen Kindern konnte indes keine derartige Diskrepanz zwischen den beiden Tests festgestellt werden. Vielmehr waren die Leistungen hier insgesamt vergleichbar, so dass für diese Altersgruppe die AS- und die SBZ-Methode als für die Untersuchung des Syntaxverständnisses gleichwertig gelten können. Darüber hinaus bestätigte die Untersuchung viele der in der Literatur beschriebenen Vor- und Nachteile der beiden Methoden, darunter der geringere Materialbeschaffungsaufwand bei der AS-Methode, die größere Durchführungspraktikabilität der SBZ-Methode, die höhere Attraktivität und das geringere Risiko für Antwort-biases bei der AS-Methode, die leichtere Bewertbarkeit der kindlichen Reaktionen bei der SBZ-Methode. Im Vergleich der Altersgruppen zeigte sich, dass die 5;0- bis 5;5-jährigen Kinder Testsätze mit Objektvoranstellung deutlich besser verstanden als die 3;0- bis 3;5-jährigen: Die meisten der jüngeren Kinder hatten die untersuchte Struktur offenbar noch nicht erworben – sie interpretierten die Sätze mit Objektvoranstellung stattdessen am häufigsten nach der Wortreihenfolgestrategie, verstanden sie also wie subjektinitiale Strukturen. Von den 5;0- bis 5;5-jährigen Kindern dagegen hatten 75% die untersuchte Struktur rezeptiv erworben, interpretierten die Testsätze also primär korrekt nach der grammatischen Strategie. Aus diesen Ergebnissen wurde geschlossen, dass die Struktur semantisch reversibler Sätze mit Objektvoranstellung frühestens ab einem Alter von 5;0 bis 5;5 Jahren als in der ungestörten Sprachentwicklung rezeptiv erworben gelten kann. Da sich jedoch in beiden Altersgruppen trotz allem eine erhebliche interindividuelle Variation hinsichtlich der Verständnisfähigkeiten zeigte, muss insgesamt von einem relativ langen Zeitfenster für den ungestörten Erwerb dieser Struktur ausgegangen werden.
The assessment of children’s receptive language abilities plays an essential part in both experimental research on language acquisition and clinical diagnostics of language acquisition impairments. Two of the most prevalent methods especially used for assessing syntax comprehension are act-out and picture selection. The two methods do not only differ in their requirements on the proband/patient, but also have specific advantages and disadvantages concerning the development, administration, and interpretation of experimental or diagnostic tests (cf. Goodluck 1996, Gerken & Shady 1996). This leads to the question of how far the adopted method influences the result of the test and the conclusions drawn from it. In the study reported here, act-out and picture selection were, by means of a comprehension task using semantically reversible sentences with object fronting, directly compared to each other. Subjects were 48 German-speaking children with normal language development: 24 aged 3;0 to 3;5 years and another 24 aged 5;0 to 5;5 years. The children were presented with twelve stimuli, nine consisting of semantically reversible sentences with object fronting and three of correspondent subject initial constructions, using both an act-out procedure with toy props and a picture selection procedure with three choices per sentence. The child’s responses were scored correct or incorrect according to syntactic criteria, with incorrect responses categorised by type. In addition, the child’s level of acquisition of the structure in focus and, when possible, the comprehension strategies used by the child were determined. The comparison of the two methods yielded very different results for the individual age groups: A considerable proportion of the 3;0 to 3;5-year-olds displayed strong effects of guessing with the picture selection procedure, which led to inaccurate results and response patterns that were hardly interpretable, whereas this was not the case with the act-out procedure. According to these findings then, act-out is to be considered the more suitable method for children of this age. However with the 5;0 to 5;5-year-olds, no such discrepancy between the two methods was found, their results in both tests being comparable. Thus, for children aged five years or older, picture selection and act-out can be regarded as equivalent methods for the assessment of syntax comprehension. In addition to these findings, many of the advantages and disadvantages of the two methods described in the literature were confirmed in the study, such as the lower material provision costs with the act-out procedure, the higher administration practicability of the picture selection method, the greater appeal for children and the lower risk for response-biases with act-out tasks, and with picture selection, the easier scoring of the child’s responses . Comparing the two age groups, the 5;0 to 5;5-year-olds showed considerably better comprehension of the semantically reversible sentences with object fronting than the 3;0 to 3;5-year-olds: The majority of the younger children obviously had not yet acquired the structure in question and instead, mostly relying on the so called word order strategy, misinterpreted the sentences with object fronting as subject-initial structures. In contrast, 75% of the older children had receptively acquired the syntax of object fronting, since they interpreted most of the test sentences correctly according to a grammatical strategy. From these results, it was concluded that the structure of semantically reversible sentences with object fronting can be regarded as receptively acquired in normal language development at the earliest at age 5;0 to 5;5 years. However, since there was considerable interindividual variation in the comprehension abilities in both age groups, the time frame for the acquisition of this structure must be assumed to be relatively large.
urn:nbn:de:kobv:517-opus-52380
5238
ER 980
ER 920
Melanie Watermeyer
deu
uncontrolled
Testmethoden
deu
uncontrolled
Sprachverständnis
deu
uncontrolled
Syntaxerwerb
eng
uncontrolled
assessment methods
eng
uncontrolled
language comprehension
eng
uncontrolled
syntax acquisition
Sprache
open_access
Department Linguistik
Institut für Linguistik / Allgemeine Sprachwissenschaft
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/5021/watermeyer_diplom.pdf
5030
2010
eng
doctoralthesis
1
2011-05-13
--
2011-03-02
The ghrelin system links dietary lipids with the endocrine control of energy homeostasis
Das Ghrelin-GOAT-System verbindet die Aufnahme von Nahrungsfetten mit der zentralen Regulation der Energiehomöostase
Ghrelin is a unique hunger-inducing stomach-borne hormone. It activates orexigenic circuits in the central nervous system (CNS) when acylated with a fatty acid residue by the Ghrelin O-acyltransferase (GOAT). Soon after the discovery of ghrelin a theoretical model emerged which suggests that the gastric peptide ghrelin is the first “meal initiation molecule
Ghrelin ist ein einzigartiges im Magen produziertes Hormon, da es von dem Enzym Ghrelin O-acyltransferase (GOAT) mit einer mittelkettigen Fettsäure acyliert werden muss, um biologische Aktivität zu erlangen. Kurz nach seiner Entdeckung entstand die Hypothese, dass Ghrelin das „Hungerhormon“ sei und eine wichtige Rolle in der Regulation des Energiehaushalts spiele. Die genetische Manipulation von Ghrelin und seinem Rezeptor, dem GHSR, hat jedoch nur geringe Auswirkung auf Appetit und Körpergewicht. In der hier vorliegenden Studie stellen wir neuartige Mausmodelle mit abgewandelter Ghrelin-, GHSR- und GOATfunktion vor, um den Einfluss des Ghrelinsystems auf die Regulation der Energiehomöostase zu reevaluieren. Weiterhin wird die endogene Regulation von GOAT erstmalig beschrieben. Double-knockout Mäuse, die gleichzeitig defizitär für Ghrelin und GHSR sind, haben ein geringeres Körpergewicht, weniger Fettmasse und einen niedrigeren Energieverbrauch als Kontrolltiere. Knockout Mäuse für das GOAT Gen Mboat4 sind leichter und schlanker als Kontrolltiere. Dementsprechend haben transgene Mäuse, die Ghrelin und GOAT überproduzieren, eine erhöhte Fettmasse und einen verminderten Energieverbrauch. Weiterhin können wir zeigen, dass GOAT, anders als auf Grund der allgemein bekannten Ghrelinfunktion angenommen, nicht durch Hungern aktiviert wird. Bei Mäusen, die gefastet haben, ist die Genexpression von Mboat4 deutlich herunterreguliert, woraus ein geringer Blutspiegel von Acyl-Ghrelin resultiert. Daraus haben wir geschlossen, dass GOAT eventuell Nahrungsfette und nicht die durch Hungern freigesetzten endogen Fettsäuren zur Ghrelinacylierung benutzt. Fütterungsversuche bestätigen diese Hypothese, da GOAT die unnatürliche Fettsäure Heptan Säure (C7), die der Tiernahrung beigefügt wurde, zur Ghrelinacylierung verwendet. Ein weiteres Indiz für die Notwendigkeit von Nahrungsfetten für die Ghrelinacylierung ist, dass die transgenen Ghrelin/GOAT Mäuse nur massiv Acyl-Ghrelin produzieren, wenn sie mit einer Diät gefüttert werden, die mit mittelkettigen Fettsäuren angereichert ist. Zusammenfassend zeigt die Studie, dass das Ghrelinsystem maßgeblich an der Regulation der Energiehomöostase beteiligt ist und dass die Ghrelinaktivierung direkt von Nahrungsfetten beeinflusst wird. Daraus könnte geschlossen werden, dass Ghrelin wohlmöglich nicht das Hungerhormon ist, wie bisher generell angenommen wurde. Ghrelin könnte vielmehr ein potentieller “Fettsensor
urn:nbn:de:kobv:517-opus-52393
5239
WX 1100
XI 1745
XI 1753
YC 7404
Henriette Kirchner
deu
uncontrolled
Ghrelin
deu
uncontrolled
GOAT
deu
uncontrolled
Hungerhormon
deu
uncontrolled
Nahrungsfette
deu
uncontrolled
Energiehaushalt
eng
uncontrolled
Ghrelin
eng
uncontrolled
GOAT
eng
uncontrolled
hunger hormone
eng
uncontrolled
dietary lipids
eng
uncontrolled
energy homeostasis
Biowissenschaften; Biologie
open_access
Institut für Ernährungswissenschaft
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/5030/kirchner_diss.pdf
5088
2010
eng
doctoralthesis
1
2011-07-18
--
2011-06-07
Physical crosslinking of gelatin : a supramolecular approach to biomaterials
Physikalische Quervernetzung von Gelatine : ein supramolekularer Zugang zu Biomaterialien
This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-% or 25 wt.-% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-% for pure gelatin to 300 vol.-% for the DATT modified gelatin), at the same time, Young’s modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young’s moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite.
Diese Arbeit beschreibt die Entwicklung von durch spezifische physikalische Wechselwirkungen quervernetzten Gelatine-basierten Materialien. Dazu wurden zunächst Computermodelle entwickelt, mit denen Eigenschaften der Materialien vorhergesagt werden sollten, um so eine wissensbasierte Entwicklung zu ermöglichen, um dann die Ergebnisse mit experimentellen Daten zu vergleichen und die Materialien und Modelle als Grundlage für weitere Entwicklungen zu nutzen. Gelatine wurde mit Desaminotyrosin (DAT) und Desaminotyrosyltyrosin (DATT) funktionalisiert, die sich von der natürlichen Aminosäure Tyrosin ableiten. Diese Gruppen können potentiell π-π Wechselwirkungen und Wasserstoffbrückenbindungen auch unter physiologischen Bedingungen eingehen. Es wurden Computersimulationen der Materialien mittels Moleküldynamik durchgeführt, wobei Modelle mit 0.8 Gew.-% und 25 Gew.-% Wassergehalt betrachtet wurden. Die Validierung der Modelle erfolgte durch Vergleich der errechneten mit experimentellen Daten wie z.B. der Dichte, Bindungswinkeln sowie Röntgenstreuungsspektren. Die Modelle wurden dann zur Vorhersage der molekularen Organisation der Polymerketten, Formierung physikalischer Netzpunkte und Berechnung der mechanischen Eigenschaften eingesetzt. Die Funktionalisierung der Gelatine mit DAT bzw. DATT führten wie gewünscht zur Ausbildung physikalischer Netzpunkte durch π-π Wechselwirkungen und Wasserstoffbrücken¬bindungen. Ein Schlüsselergebnis der Simulationen war, dass mit zunehmender Zahl an aromatischen Gruppen auch eine Zunahme der physikalischen Netzpunkte beobachtet werden konnte. Die funktionalisierten Gelatinen konnten durch chemoselektive Reaktion der Aminogruppen der Gelatine mit den freien Carboxylgruppen von DAT und DATT hergestellt werden. Materialien mit 25 Gew.-% Wassergehalt hatten in der Simulation und im Experiment mechanische Eigenschaften derselben Größenordnung (z.B. E-Moduln im unteren GPa-Bereich). Der Quellungsgrad der Materialien im Experiment nahm mit zunehmender Zahl an aromatische Gruppen ab (von 2800 Vol.-% auf 300 Vol.-%), wobei der Elastizitätsmodul, die Bruchdehnung sowie die Zugfestigkeit zunahmen. Die Funktionalisierung der Gelatine ist eine chemische Methode, um die Kettenanordnung auf molekularer Ebene zu beeinflussen, während die genaue Kontrolle der Trocknungs¬bedinguungen von Gelatine-basierten Materialien eine physikalische Methode mit demselben Ziel ist. Es konnte gezeigt werden, dass die Funktionalisierung von Gelatine mit DAT oder DATT zu einer stark verminderten Helixausbildungstendenz, die jedoch durch Variation der Trocknunsgbedingungen noch fein abgestimmt werden konnte. Somit konnten die mechanischen Eigenschaften von Filmen aus funktionlisierter Gelatine mit zwei unabhängigen Methoden eingestellt werden. Komposite der mit DAT oder DATT funktionalisierten Gelatine und Hydroxyapatit (HAp) zeigten deutlich verringerter Quellung. In Zugdehnungsexperimenten und rheologischen Untersuchungen zeigten die Komposite im Gleichgewichtsquellungszustand erhöhte Elastizitätsmoduln (von 200 kPa auf bis zu 2 MPa) und Zugfestigkeit (von 57 kPa auf bis zu 1.1 MPa). Darüber hinaus konnte die Übergangstemperatur Tc deutlich gesteigert werden (von ca. 40 °C auf > 85 °C). Dieses Verhalten ließ sich auf stabilisierende Bindungen zwischen den aromatische Gruppen und dem HAp zurückführen.
urn:nbn:de:kobv:517-opus-52888
5288
VE 5307
YI 3261
YI 3204
VE 5307
Alessandro Zaupa
deu
uncontrolled
Physikalische Quervernetzung
deu
uncontrolled
Supramolekularen Wechselwirkung
deu
uncontrolled
Molekulare Modellierung
deu
uncontrolled
Biomaterialien
deu
uncontrolled
Gelatine
deu
uncontrolled
Komposite
deu
uncontrolled
Hydroxyapatit
eng
uncontrolled
Physical Network
eng
uncontrolled
Supramolecular Interaction
eng
uncontrolled
Molecular modeling
eng
uncontrolled
Biomaterial
eng
uncontrolled
Gelatin
eng
uncontrolled
Composite
eng
uncontrolled
Hydroxyapatite
Biowissenschaften; Biologie
open_access
Institut für Biochemie und Biologie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/5088/zaupa_diss.pdf
5063
2010
eng
doctoralthesis
1
2011-06-14
--
2011-04-13
About the relation between implicit Theory of Mind & the comprehension of complement sentences
Über den Zusammenhang zwischen impliziter Theory of Mind und dem Verstehen von Komplementsatzstrukturen
Previous studies on the relation between language and social cognition have shown that children’s mastery of embedded sentential complements plays a causal role for the development of a Theory of Mind (ToM). Children start to succeed on complementation tasks in which they are required to report the content of an embedded clause in the second half of the fourth year. Traditional ToM tasks test the child’s ability to predict that a person who is holding a false belief (FB) about a situation will act "falsely". In these task, children do not represent FBs until the age of 4 years. According the linguistic determinism hypothesis, only the unique syntax of complement sentences provides the format for representing FBs. However, experiments measuring children’s looking behavior instead of their explicit predictions provided evidence that already 2-year olds possess an implicit ToM. This dissertation examined the question of whether there is an interrelation also between implicit ToM and the comprehension of complement sentences in typically developing German preschoolers. Two studies were conducted. In a correlational study (Study 1 ), 3-year-old children’s performance on a traditional (explicit) FB task, on an implicit FB task and on language tasks measuring children’s comprehension of tensed sentential complements were collected and tested for their interdependence. Eye-tracking methodology was used to assess implicit ToM by measuring participants’ spontaneous anticipatory eye movements while they were watching FB movies. Two central findings emerged. First, predictive looking (implicit ToM) was not correlated with complement mastery, although both measures were associated with explicit FB task performance. This pattern of results suggests that explicit, but not implicit ToM is language dependent. Second, as a group, 3-year-olds did not display implicit FB understanding. That is, previous findings on a precocious reasoning ability could not be replicated. This indicates that the characteristics of predictive looking tasks play a role for the elicitation of implicit FB understanding as the current task was completely nonverbal and as complex as traditional FB tasks. Study 2 took a methodological approach by investigating whether children display an earlier comprehension of sentential complements when using the same means of measurement as used in experimental tasks tapping implicit ToM, namely anticipatory looking. Two experiments were conducted. 3-year-olds were confronted either with a complement sentence expressing the protagonist’s FB (Exp. 1) or with a complex sentence expressing the protagonist’s belief without giving any information about the truth/ falsity of the belief (Exp. 2). Afterwards, their expectations about the protagonist’s future behavior were measured. Overall, implicit measures reveal no considerably earlier understanding of sentential complementation. Whereas 3-year-olds did not display a comprehension of complex sentences if these embedded a false proposition, children from 3;9 years on were proficient in processing complement sentences if the truth value of the embedded proposition could not be evaluated. This pattern of results suggests that (1) the linguistic expression of a person’s FB does not elicit implicit FB understanding and that (2) the assessment of the purely syntactic understanding of complement sentences is affected by competing reality information. In conclusion, this dissertation found no evidence that the implicit ToM is related to the comprehension of sentential complementation. The findings suggest that implicit ToM might be based on nonlinguistic processes. Results are discussed in the light of recently proposed dual-process models that assume two cognitive mechanisms that account for different levels of ToM task performance.
Zahlreiche Studien legen nahe, dass der Erwerb finiter Komplementsatzstrukturen eine Voraussetzung für die Entwicklung einer Theory of Mind (ToM) ist. Kinder beginnen in circa der zweiten Hälfte ihres 4. Lebensjahres Komplementsatzverständnisaufgaben zu lösen, die eine Wiedergabe des Komplementsatzes erfordern. Die ToM wird klassischerweise als erworben bezeichnet, wenn ein Kind korrekt vorhersagen kann, dass eine Person, die eine falsche Überzeugung hat, entsprechend "falsch" handeln wird. Es ist bekannt, dass sich diese Fähigkeit bei Kindern mit circa 4 Jahren entwickelt. Gemäß der Hypothese des linguistischen Determinismus liefert die syntaktische Komplexität von Komplementsatzstrukturen das Format, um falsche Überzeugungen mental zu repräsentieren. In ToM Aufgaben, die erfassen, wo Kinder eine zukünfige Handlung einer fehlinformierten Person antizipieren, konnte allerdings bereits schon bei 2-Jährigen das Verstehen falscher Überzeugungen nachgewiesen werden. Diese frühe Fähigkeit wird auch implizite ToM genannt, da diese Art der Aufgabe keine bewusste Entscheidung verlangt. Die vorliegende Dissertation untersucht erstmalig im Deutschen, ob der Zusammenhang zwischen dem Verstehen von Komplementsatzstrukturen und ToM auch für diese implizite Fähigkeit gilt. Zwei Studien wurden durchgeführt. In Studie 1 wurden die Leistungen von 3-Jährigen in einer klassischen (expliziten) ToM Aufgabe, einer impliziten ToM Aufgabe und in Komplementsatzverständnisaufgaben erhoben und auf korrelative Zusammenhänge hin getestet. Dabei wurde mittels eines Eye-Trackers das antizipative Blickverhalten gemessen und somit auf das Vorhandensein einer impliziten ToM geschlossen. Die Leistungen in den Sprachaufgaben korrelierten nicht mit den Blickdaten, obwohl beide Maße mit den Leistungen in der expliziten ToM Aufgabe in Beziehung standen. Unerwarteterweise konnte jedoch generell kein implizites Verstehen falscher Überzeugungen bei 3-jährigen nachgewiesen werden. Da die implizite ToM Aufgabe nichtsprachlich war, wird der Einfluss von Aufgabeneigenschaften auf die Elizitierung von impliziter ToM diskutiert. Studie 2 untersuchte, ob 3-Jährige ein früheres, implizites Verstehen von Komplementsatzstrukturen in Aufgaben zeigen, in denen antizipatorische Blicke anstelle von expliziten Antworten gemessen werden und damit das gleiche Maß verwendet wird wie in impliziten ToM Aufgaben. Zwei Experimente wurden durchgeführt. Der präsentierte Komplementsatz drückte entweder eine falsche Überzeugung des Protagonisten aus (Exp. 1) oder eine Überzeugung, deren Wahrheitsgehalt nicht bestimmt wurde (Exp. 2). Während bei 3-Jährigen kein Verstehen von Komplementsatzstrukturen, die eine falsche Proposition enthielten, nachgewiesen werden konnte, zeigten Kinder ab einem Alter von 3;9 Jahren, dass sie den komplexen Satz verarbeiten, wenn dieser keine falsche Proposition beinhaltet. Dieses Ergebnismuster spricht dafür, dass (1) der sprachliche Ausdruck einer falschen Überzeugung die implizite ToM nicht elizitieren kann und dass (2) das Erfassen des rein syntaktischen Verstehens durch zusätzliche Realitätsinformation beeinträchtigt wird. Zusammenfassend konnte in der vorliegenden Arbeit kein Hinweis dafür gefunden werden, dass die implizite ToM in gleicher Weise wie die explizite ToM mit dem Verstehen von Komplementsatzstrukturen einhergeht. Die Ergebnisse legen nahe, dass vielmehr nonlinguistische Faktoren bei der Entwicklung einer impliziten ToM eine Rolle spielen könnten. Die Resultate werden mit Blick auf aktuelle Zwei-Prozess-Modelle diskutiert.
urn:nbn:de:kobv:517-opus-52293
5229
ER 920
CQ 2000
CQ 6200
CQ 4000
CQ 5100
Silvana Poltrock
deu
uncontrolled
Theory of Mind
deu
uncontrolled
Komplementsatzverstehen
deu
uncontrolled
linguistische Determinismushypothese
deu
uncontrolled
implizit
deu
uncontrolled
Blickbewegungsmessung
eng
uncontrolled
theory of mind
eng
uncontrolled
comprehension of complement sentences
eng
uncontrolled
linguistic determinism
eng
uncontrolled
implicit
eng
uncontrolled
eye tracking
Psychologie
open_access
Strukturbereich Kognitionswissenschaften
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/5063/poltrock_diss.pdf
5049
2010
deu
masterthesis
1
2011-05-20
--
--
Chronotopos Ostdeutschland aus der Sicht westdeutscher Autoren : vergleichende Roman-Analyse zu einem Motiv bei Jan Böttcher und Andreas Maier
The chronotope of East-Germany from the West-German perspective : comparative novel analyzing to a motive at Jan Böttcher and Andreas Maier
Bislang konzentrierten sich die Untersuchungen des westdeutschen Blicks auf Ostdeutschland auf den Zeitraum vor der Wende oder auf Rundfunk- und Fernseh-Medien. Die Gegenwartsliteratur stellt einen weißen Fleck in dieser Frage dar. Anhand des Chronotopos-Konzepts von Michail Bachtin werden in dieser Arbeit daher zeitliche und räumliche Tiefenstrukturen in der Darstellung Ostdeutschlands in den Werken Jan Böttchers und Andreas Maiers herausgearbeitet und mit ihrer Darstellung Westdeutschlands verglichen. Neben grundsätzlichen Unterschieden fallen dabei signifikante Übereinstimmungen auf.
urn:nbn:de:kobv:517-opus-52419
5241
GN 9999 MAI
GN 9999 BOET
Christoph Beck
deu
uncontrolled
Chronotopos
deu
uncontrolled
Ostdeutschland
deu
uncontrolled
Jan Böttcher
deu
uncontrolled
Andreas Maier
deu
uncontrolled
Michail Bachtin
eng
uncontrolled
Chronotope
eng
uncontrolled
East-Germany
eng
uncontrolled
Jan Böttcher
eng
uncontrolled
Andreas Maier
eng
uncontrolled
Mikhail Bakhtin
Literaturen germanischer Sprachen; Deutsche Literatur
open_access
Institut für Germanistik
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/5049/beck_magister.pdf
4054
2010
eng
doctoralthesis
1
2010-05-06
--
2010-03-08
Finite difference methods for 1st Order in time, 2nd order in space, hyperbolic systems used in numerical relativity
Finite Differenzen für hyperbolische Gleichungen erster Ordnung in der Zeit, zweiter Ordnung im Raum in der numerischen Relativitätstheorie
This thesis is concerned with the development of numerical methods using finite difference techniques for the discretization of initial value problems (IVPs) and initial boundary value problems (IBVPs) of certain hyperbolic systems which are first order in time and second order in space. This type of system appears in some formulations of Einstein equations, such as ADM, BSSN, NOR, and the generalized harmonic formulation. For IVP, the stability method proposed in [14] is extended from second and fourth order centered schemes, to 2n-order accuracy, including also the case when some first order derivatives are approximated with off-centered finite difference operators (FDO) and dissipation is added to the right-hand sides of the equations. For the model problem of the wave equation, special attention is paid to the analysis of Courant limits and numerical speeds. Although off-centered FDOs have larger truncation errors than centered FDOs, it is shown that in certain situations, off-centering by just one point can be beneficial for the overall accuracy of the numerical scheme. The wave equation is also analyzed in respect to its initial boundary value problem. All three types of boundaries - outflow, inflow and completely inflow that can appear in this case, are investigated. Using the ghost-point method, 2n-accurate (n = 1, 4) numerical prescriptions are prescribed for each type of boundary. The inflow boundary is also approached using the SAT-SBP method. In the end of the thesis, a 1-D variant of BSSN formulation is derived and some of its IBVPs are considered. The boundary procedures, based on the ghost-point method, are intended to preserve the interior 2n-accuracy. Numerical tests show that this is the case if sufficient dissipation is added to the rhs of the equations.
Diese Doktorarbeit beschäftigt sich mit der Entwicklung numerischer Verfahren für die Diskretisierung des Anfangswertproblems und des Anfangs-Randwertproblems unter Einsatz von finite-Differenzen-Techniken für bestimmte hyperbolischer Systeme erster Ordnung in der Zeit und zweiter Ordnung im Raum. Diese Art von Systemen erscheinen in einigen Formulierungen der Einstein'schen-Feldgleichungen, wie zB. den ADM, BSSN oder NOR Formulierungen, oder der sogenanten verallgemeinerten harmonischen Darstellung. Im Hinblick auf das Anfangswertproblem untersuche ich zunächst tiefgehend die mathematischen Eigenschaften von finite-Differenzen-Operatoren (FDO) erster und zweiter Ordnung mit 2n-facher Genaugigkeit. Anschließend erweitere ich eine in der Literatur beschriebene Methode zur Stabilitätsanalyse für Systeme mit zentrierten FDOs in zweiter und vierter Genauigkeitsordung auf Systeme mit gemischten zentrierten und nicht zentrierten Ableitungsoperatoren 2n-facher Genauigkeit, eingeschlossen zusätzlicher Dämpfungsterme, wie sie bei numerischen Simulationen der allgemeinen Relativitätstheorie üblich sind. Bei der Untersuchung der einfachen Wellengleichung als Fallbeispiel wird besonderes Augenmerk auf die Analyse der Courant-Grenzen und numerischen Geschwindigkeiten gelegt. Obwohl unzentrierte, diskrete Ableitungsoperatoren größere Diskretisierungs-Fehler besitzen als zentrierte Ableitungsoperatoren, wird gezeigt, daß man in bestimmten Situationen eine Dezentrierung des numerischen Moleküls von nur einem Punkt bezüglich des zentrierten FDO eine höhere Genauigkeit des numerischen Systems erzielen kann. Die Wellen-Gleichung in einer Dimension wurde ebenfalls im Hinblick auf das Anfangswertproblem untersucht. In Abhängigkeit des Wertes des sogenannten Shift-Vektors, müssen entweder zwei (vollständig eingehende Welle), eine (eingehende Welle) oder keine Randbedingung (ausgehende Welle) definiert werden. In dieser Arbeit wurden alle drei Fälle mit Hilfe der 'Ghost-point-methode' numerisch simuliert und untersucht, und zwar auf eine Weise, daß alle diese Algorithmen stabil sind und eine 2n-Genauigkeit besitzen. In der 'ghost-point-methode' werden die Evolutionsgleichungen bis zum letzen Punkt im Gitter diskretisiert unter Verwendung von zentrierten FDOs und die zusätzlichen Punkte die am Rand benötigt werden ('Ghost-points') werden unter Benutzung von Randwertbedingungen und Extrapolationen abgeschätzt. Für den Zufluß-Randwert wurde zusätzlich noch eine andere Implementierung entwickelt, welche auf der sogenannten SBP-SAT (Summation by parts-simulatanous approximation term) basiert. In dieser Methode werden die diskreten Ableitungen durch Operatoren angenähert, welche die 'Summation-by-parts' Regeln erfüllen. Die Randwertbedingungen selber werden in zusätzlichen Termen integriert, welche zu den Evolutionsgleichnungen der Punkte nahe des Randes hinzuaddiert werden und zwar auf eine Weise, daß die 'summation-by-parts' Eigenschaften erhalten bleiben. Am Ende dieser Arbeit wurde noch eine eindimensionale (kugelsymmetrische) Version der BSSN Formulierung abgeleitet und einige physikalisch relevanten Anfangs-Randwertprobleme werden diskutiert. Die Randwert-Algorithmen, welche für diesen Fall ausgearbeitet wurden, basieren auf der 'Ghost-point-Methode' and erfüllen die innere 2n-Genauigkeit solange genügend Reibung in den Gleichungen zugefügt wird.
urn:nbn:de:kobv:517-opus-42135
4213
UH 8300
SK 370
mihchi@gmail.com | mihchi@googlemail.com
Mihaela Chirvasa
deu
uncontrolled
Finite Differenzen
deu
uncontrolled
Wellengleichung
deu
uncontrolled
numerischen Relativitätstheorie
eng
uncontrolled
finite differences
eng
uncontrolled
wave equation
eng
uncontrolled
numerical relativity
Physik
open_access
Institut für Physik und Astronomie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4054/chirvasa_diss.pdf
4055
2010
deu
doctoralthesis
1
2010-05-06
--
2010-03-29
Zur Entstehung von Good Governance : Gründe, Muster und Bedingungen einer afrikanischen Entwicklung ; das Beispiel Ghana
About the emergence of Good Governance : reasons, models and conditions of an african development ; the example Ghana
Ghana ist ein Musterbeispiel dafür, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gründe, Muster und Bedingungen führen zur Entstehung von Good Governance?“. Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst über einen sehr langen Zeitraum (über ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu können. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes“ sowohl unter Rückgriff auf quantitative als auch auf qualitative Methoden durchgeführt, was sich im Rückblick als sehr ertragreich erwiesen hat. Zunächst wird die Qualität der Governance über den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gründe für die Fort- und Rückschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkuläre Entwicklungen, die über viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbrüche aus den Kreisläufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bevölkerung mit öffentlichen Gütern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zunächst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilität politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. Ähnliche Verknüpfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Berücksichtigung eines komplexen Governance-Systems verstanden und erklärt werden. Dabei können die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verständnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance über das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengeführt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird darüber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Veränderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Veränderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachlässigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen.
Ghana is a prime example that a developing country can forge the path towards Good Governance. According to various studies Ghana, compared to other African countries, is a front-runner in this respect. This study asks the question “what are the reasons, models and conditions which lead to Good Governance?”. At the heart of this study is an empirical analysis of the emergence of Good Governance in Ghana and the process of transformation. This process is studied over a long period of time (more than fifty years), in order to be able to judge the long-term developments as well as those in the short-term. The survey is conducted using a “Mixed Methods Approach”, both quantitative and qualitative analyses methods are used. In hindsight this approach proved to be very effective. Initially the quality of Governance is measured over the entire period of time using six different indicators. The improvements and setbacks are then qualitatively analyzed looking for reasons for these developments. This approach uncovered certain consistent systems i.e. circular developments which, for many years, were an obstacle on the road to Good Governance until Ghana was able to break out of the cycle eventually. Democratic change took place, rule of law was improved just as the provision of the population with public goods and the economic development. Even if the various aspects of Good Governance are studied separately at first, it becomes clear that these aspects are inter-related and influence each other. For example it has been shown, that the rule of law influences the stability of the political as well as the economic system and vice-versa. The development of a country can therefore only be understood and explained using a complex Governance-System. The interactions within this system can either be constructive or destructive. The linkages of the various fields are illustrated first in a negative and then in positive scenario which summarize the findings of this survey. At the same time they contribute to the analytic understanding of the processes analyzed. The study clearly shows how Good Governance emerges from an interaction between different factors. It also shows that it is scientifically very rewarding to consider a complex Governance-System in transformation research. In the study many different, empirically compiled, results concerning the particular transformations are brought together in comprehensive scenarios. As there are no surveys analyzing comprehensive Good Governance-transformations, this study takes the first step in this direction. It is clear that transformation towards Good Governance can not be achieved in a short period of time by changing the general framework. Instead, cultural change, learning processes and long-term development are what is important and these have been analyzed in this study using Ghana as an example. In many earlier studies on transformation this temporal aspect was neglected. Ghana has taken many steps towards Good Governance and the future. The analysis of these steps is core aspect of this survey. The country, however, still has a long way to go.
urn:nbn:de:kobv:517-opus-42310
4231
MI 24700
MI 24735
Andreas Audretsch
deu
uncontrolled
Governance
deu
uncontrolled
Ghana
deu
uncontrolled
Afrika
deu
uncontrolled
Demokratisierung
deu
uncontrolled
Korruption
eng
uncontrolled
Governance
eng
uncontrolled
Ghana
eng
uncontrolled
Africa
eng
uncontrolled
Democratisation
eng
uncontrolled
Corruption
Politikwissenschaft
open_access
Sozialwissenschaften
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4055/audretsch_diss.pdf
4026
2010
eng
doctoralthesis
1
2010-04-27
--
2010-02-19
Interactions between aqueous fluids and silicate melts : equilibration, partitioning and complexation of trace elements
Wechselwirkungen zwischen wässrigen Fluiden und silikatischen Schmelzen : Verteilung von Spurenelementen
The origin and evolution of granites has been widely studied because granitoid rocks constitute a major portion of the Earth ́s crust. The formation of granitic magma is, besides temperature mainly triggered by the water content of these rocks. The presence of water in magmas plays an important role due to the ability of aqueous fluids to change the chemical composition of the magma. The exsolution of aqueous fluids from melts is closely linked to a fractionation of elements between the two phases. Then, aqueous fluids migrate to shallower parts of the Earth ́s crust because of it ́s lower density compared to that of melts and adjacent rocks. This process separates fluids and melts, and furthermore, during the ascent, aqueous fluids can react with the adjacent rocks and alter their chemical signature. This is particularly impor- tant during the formation of magmatic-hydrothermal ore deposits or in the late stages of the evolution of magmatic complexes. For a deeper insight to these processes, it is essential to improve our knowledge on element behavior in such systems. In particular, trace elements are used for these studies and petrogenetic interpretations because, unlike major elements, they are not essential for the stability of the phases involved and often reflect magmatic processes with less ambiguity. However, for the majority of important trace elements, the dependence of the geochemical behavior on temperature, pressure, and in particular on the composition of the system are only incompletely or not at all experimentally studied. Former studies often fo- cus on the determination of fluid−melt partition coefficients (Df/m=cfluid/cmelt) of economically interesting elements, e.g., Mo, Sn, Cu, and there are some partitioning data available for ele- ments that are also commonly used for petrological interpretations. At present, no systematic experimental data on trace element behavior in fluid−melt systems as function of pressure, temperature, and chemical composition are available. Additionally, almost all existing data are based on the analysis of quenched phases. This results in substantial uncertainties, particularly for the quenched aqueous fluid because trace element concentrations may change upon cooling. The objective of this PhD thesis consisted in the study of fluid−melt partition coefficients between aqueous solutions and granitic melts for different trace elements (Rb, Sr, Ba, La, Y, and Yb) as a function of temperature, pressure, salinity of the fluid, composition of the melt, and experimental and analytical approach. The latter included the refinement of an existing method to measure trace element concentrations in fluids equilibrated with silicate melts di- rectly at elevated pressures and temperatures using a hydrothermal diamond-anvil cell and synchrotron radiation X-ray fluorescence microanalysis. The application of this in-situ method enables to avoid the main source of error in data from quench experiments, i.e., trace element concentration in the fluid. A comparison of the in-situ results to data of conventional quench experiments allows a critical evaluation of quench data from this study and literature data. In detail, starting materials consisted of a suite of trace element doped haplogranitic glasses with ASI varying between 0.8 and 1.4 and H2O or a chloridic solution with m NaCl/KCl=1 and different salinities (1.16 to 3.56 m (NaCl+KCl)). Experiments were performed at 750 to 950◦C and 0.2 or 0.5 GPa using conventional quench devices (externally and internally heated pressure vessels) with different quench rates, and at 750◦C and 0.2 to 1.4 GPa with in-situ analysis of the trace element concentration in the fluids. The fluid−melt partitioning data of all studied trace elements show 1. a preference for the melt (Df/m < 1) at all studied conditions, 2. one to two orders of magnitude higher Df/m using chloridic solutions compared to experiments with H2O, 3. a clear dependence on the melt composition for fluid−melt partitioning of Sr, Ba, La, Y, and Yb in experiments using chloridic solutions, 4. quench rate−related differences of fluid−melt partition coefficients of Rb and Sr, and 5. distinctly higher fluid−melt partitioning data obtained from in-situ experiments than from comparable quench runs, particularly in the case of H2O as starting solution. The data point to a preference of all studied trace elements for the melt even at fairly high salinities, which contrasts with other experimental studies, but is supported by data from studies of natural co-genetically trapped fluid and melt inclusions. The in-situ measurements of trace element concentrations in the fluid verify that aqueous fluids will change their composition upon cooling, which is in particular important for Cl free systems. The distinct differences of the in-situ results to quench data of this study as well as to data from the literature signify the im- portance of a careful fluid sampling and analysis. Therefore, the direct measurement of trace element contents in fluids equilibrated with silicate melts at elevated PT conditions represents an important development to obtain more reliable fluid−melt partition coefficients. For further improvement, both the aqueous fluid and the silicate melt need to be analyzed in-situ because partitioning data that are based on the direct measurement of the trace element content in the fluid and analysis of a quenched melt are still not completely free of quench effects. At present, all available data on element complexation in aqueous fluids in equilibrium with silicate melts at high PT are indirectly derived from partitioning data, which involves in these experiments assumptions on the species present in the fluid. However, the activities of chemical components in these partitioning experiments are not well constrained, which is required for the definition of exchange equilibria between melt and fluid species. For example, the melt-dependent variation of partition coefficient observed for Sr imply that this element can not only be complexed by Cl− as suggested previously. The data indicate a more complicated complexation of Sr in the aqueous fluid. To verify this hypothesis, the in-situ setup was also used to determine strontium complexation in fluids equilibrated with silicate melts at desired PT conditions by the application of X-ray absorption near edge structure (XANES) spectroscopy. First results show a strong effect of both fluid and melt composition on the resulting XANES spectra, which indicates different complexation environments for Sr.
Die Entstehung und Entwicklung von Graniten steht seit Jahrzehnten im Fokus vieler geologischer Studien, da sich die Erdkruste zu großen Teilen aus granitoiden Gesteinen zusammensetzt. Von besonderer Bedeutung für die Bildung von granitischen Schmelzen ist neben der Temperatur, der Wassergehalt der Schmelze, da dieser Parameter die chemische Zusammensetzung der Schmelze entscheidend verändern kann. Die Entmischung wässriger Fluide aus Schmelzen führt zur Neuverteilung von Elementen zwischen diesen Phasen. Bedingt durch die geringere Dichte des wässrigen Fluids im Vergleich zur Schmelze und dem Nebengestein, beginnt dieses aus tieferen Erdschichten aufzusteigen. Damit verknüpft ist nicht nur eine räumliche Trennung von Schmelze und Fluid, sondern auch die Alterierung des Nebengestein. Dieser Prozess ist insbesondere bei der Bildung von magmatisch-hydrothermalen Lagerstätten und in späten Entwicklungsstadien magmatischer Komplexe wichtig. Für ein detailliertes Verständnis dieser Prozesse ist es notwendig, das Elementverhalten in solchen Systemen in Abhängigkeit von Parametern wie Temperatur, Druck und chemischer Zusammensetzung des Systems experimentell zu untersuchen, und Elementverteilungskoeffizienten als Funktion dieser Variablen zu bestimmen. Für die Untersuchungen sind insbesondere Spurenelemente geeignet, da diese im Gegensatz zu Hauptelementen nicht essentiell für die Stabilität weiterer auftretender Phasen sind, aber sehr sensibel auf Änderungen intensiver Variablen reagieren können. Zudem werden bei geochemischen Mineral- und Gesteinsanalysen viele Spurenelemente, Spurenelementverhältnisse, und Spurenelementisotope als petrogenetische Indikatoren verwendet, d.h. diese Daten liefern Informationen darüber, wann und in welcher Tiefe und bei welchen chemischen Bedingungen ein Gestein gebildet worden ist, und welche weiteren Prozesse es auf dem Weg zur Erdoberfläche durchlaufen hat. Allerdings sind für vie- le Spurenelemente die Abhängigkeiten der Verteilung zwischen Fluiden und Schmelzen von intensiven Variablen nicht, oder nur unzureichend experimentell untersucht worden. Zusätzlich dazu basiert die Mehrheit der experimentell gewonnenen Verteilungskoeffizienten und deren Interpretation, insbesondere hinsichtlich der Elementkomplexierung im Fluid, auf der Analyse von schnell abgekühlten Phasen. Bisher ist nicht geklärt, ob solche Analysen repräsentativ sind für die Zusammensetzungen der Phasen bei hohen Drücken und Temperaturen. Das Ziel dieser Studie war die Erarbeitung eines experimentellen Datensatzes zur Spu- renelementverteilung zwischen granitischen Schmelzen und wässrigen Fluiden in Abhängigkeit von der Schmelzzusammensetzung, der Salinität des Fluids, des Drucks und der Temperatur. Ein Hauptanliegen der Arbeit bestand in der Weiterentwicklung einer experimentellen Methode bei welcher der Spurenelementgehalt im Fluid in-situ, d.h. unter hohen Drücken und Temperaturen, und im Gleichgewicht mit einer silikatischen Schmelze bestimmt wird. Die so gewonnenen Daten können anschließend mit den Resultaten von Abkühlexperimenten vergli- chen werden, um diese und auch Literaturdaten kritisch zu bewerten. Die Daten aller unter- suchten Spurenelemente dieser Arbeit (Rb, Sr, Ba, La, Y und Yb) zeigen: 1. unter den untersuchten Bedingungen eine Präferenz für die Schmelze unabhängig von der chemischen Zusammensetzung von Schmelze und Fluid, Druck oder Temperatur, 2. die Verwendung von chloridhaltigen Fluiden kann die Verteilungskoeffizienten um 1 bis 2 Größenordnungen anheben und 3. für die Verteilungskoeffizienten von Sr, Ba, La, Y und Yb eine starke Abhängigkeit von der Schmelzzusammensetzung im chloridischen System. Der Vergleich der Daten der verschiedenen Methoden zeigt, dass insbesondere für chloridfreie Fluide große Diskrepanzen zwischen den in-situ Daten und Analysen von abgeschreckten Proben bestehen. Dieses Ergebnis beweist eindeutig, dass beim Abschrecken der Proben Rückreaktionen stattfinden, und dass Daten, welche auf Analysen abgeschreckter Fluide basieren, nur eingeschränkt verwendet werden sollten. Die Variation der Verteilungskoeffizienten von Sr, Ba, La, Yb, und Y als Funktion der Schmelzzusammensetzung ist entweder auf eine Änderung der Komplexierung im Fluid und/oder einen anderen veränderten Einbau dieser Elemente in die Schmelze zurückzuführen. Daher wurde im Rahmen dieser Arbeit erstmals versucht, die Elementkomplexierung in silikatischen Fluiden direkt bei hohen Temperaturen und Drücken zu bestimmen. Die Daten für Sr zeigen, dass abhängig von der Schmelzzusammensetzung unterschiedliche Komplexe stabil sein müssen.
urn:nbn:de:kobv:517-opus-42088
4208
VE 9607
TH 01720
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Manuela Borchert
deu
uncontrolled
Spurenelement-Partitionierung
deu
uncontrolled
Fluid-Schmelze Wechselwirkung
deu
uncontrolled
HP-HT Experimente
deu
uncontrolled
In-Situ-Analyse
deu
uncontrolled
HDAC
eng
uncontrolled
trace element partitioning
eng
uncontrolled
fluid-melt interaction
eng
uncontrolled
HP-HT experiments
eng
uncontrolled
in-situ analysis
eng
uncontrolled
HDAC
Geowissenschaften
open_access
Institut für Geowissenschaften
Institut für Erd- und Umweltwissenschaften
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4026/borchert_diss.pdf
4027
2010
deu
303
book
Universitätsverlag Potsdam
Potsdam
1
2010-04-27
--
--
Das Fremde und der Text : fremdsprachige Kommunikation und ihre Ergebnisse
Dass die Textlinguistik nicht umhin kommt, ihre Beschreibungen und ihr Instrumentarium auch im Hinblick auf Texte zu überprüfen, die nicht von Muttersprachlern erzeugt worden sind, ist durch die wachsenden Bedürfnisse nach fremdsprachiger Kommunikation und die rapide steigende Zahl entsprechender kommunikativer Ereignisse bedingt. Der Fokus der vorliegenden Publikation liegt auf dem fremdsprachigen Text (vorzugsweise in seiner schriftlichen, monologischen Ausprägung) als sprachlicher Größe liegen. Bei der Analyse fremdsprachiger Texte werden neben textlinguistischen Fragen aber auch andere Gesichtspunkte berücksichtigt: soziolinguistische Aspekte, z.B. in Bezug auf die Kommunikationspartner, die kommunikativen Domänen, den sozial-historischen Rahmen der Kommunikation usw., psycholinguistische Hintergründe, z.B. im Hinblick auf die kognitive Verarbeitung fremdsprachlich-kommunikativer Anforderungen, literaturwissenschaftliche Bezüge, etwa hinsichtlich fremdsprachiger Einflüsse auf literarische Werke und ihre Rolle im literarischen Diskurs, translationswissenschaftliche Gesichtspunkte im Hinblick auf die Adaptation und Bewahrung des Fremden im übersetzten Text sowie pädagogisch-didaktische Fragen im Rahmen des gesteuerten Fremdsprachenerwerbs.
Owing to the growing necessity for foreign language interaction and the rapidly increasing number of associated communicative events, it is essential for text linguistics also to test its categories and methodology on texts which have not been produced by native speakers. The focus of the present publication lies on the foreign language text (primarily on its written, monological form) which is conceived as a linguistic entity. However, alongside textlinguistic issues the analysis of foreign language texts also entails a consideration of the following parameters: sociolinguistic aspects, e.g. with regard to the communicative partners, communicative domains, social-historic framework of the communicative situation etc.; psycholinguistic aspects, e.g. with respect to the cognitive processing of foreign language communication tasks; literary aspects, e.g. with regard to foreign language influences on literary works and their role in literary discourse; translatory aspects concerning the adaptation and preservation of foreign cultural elements in a translated text and pedagogical-didactic questions concerning foreign language teaching.
urn:nbn:de:kobv:517-opus-40447
4044
978-3-86956-033-5
ER 990 ; ER980 ; ET 760 ; ES 100
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
deu
uncontrolled
Textlinguistik
deu
uncontrolled
Textualitätskriterien
deu
uncontrolled
Textstruktur
deu
uncontrolled
Textsorte
deu
uncontrolled
Intertextualität
deu
uncontrolled
Kommunikationsaufgabe
deu
uncontrolled
fremdsprachige Kommunikation
eng
uncontrolled
Text linguistics
eng
uncontrolled
Textuality criteria
eng
uncontrolled
Text structure
eng
uncontrolled
Text type
eng
uncontrolled
Intertextuality
eng
uncontrolled
Communicative task
eng
uncontrolled
Foreign language communication
Sprache
open_access
Institut für Germanistik
Universitätsverlag Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4027/fremde_text.pdf
4101
2010
eng
doctoralthesis
1
2010-05-28
--
2010-04-13
Climate impact on phytoplankton blooms in shallow lakes
Der Einfluss des Klimas auf Algenblüten in Flachseen
Lake ecosystems across the globe have responded to climate warming of recent decades. However, correctly attributing observed changes to altered climatic conditions is complicated by multiple anthropogenic influences on lakes. This thesis contributes to a better understanding of climate impacts on freshwater phytoplankton, which forms the basis of the food chain and decisively influences water quality. The analyses were, for the most part, based on a long-term data set of physical, chemical and biological variables of a shallow, polymictic lake in north-eastern Germany (Müggelsee), which was subject to a simultaneous change in climate and trophic state during the past three decades. Data analysis included constructing a dynamic simulation model, implementing a genetic algorithm to parameterize models, and applying statistical techniques of classification tree and time-series analysis. Model results indicated that climatic factors and trophic state interactively determine the timing of the phytoplankton spring bloom (phenology) in shallow lakes. Under equally mild spring conditions, the phytoplankton spring bloom collapsed earlier under high than under low nutrient availability, due to a switch from a bottom-up driven to a top-down driven collapse. A novel approach to model phenology proved useful to assess the timings of population peaks in an artificially forced zooplankton-phytoplankton system. Mimicking climate warming by lengthening the growing period advanced algal blooms and consequently also peaks in zooplankton abundance. Investigating the reasons for the contrasting development of cyanobacteria during two recent summer heat wave events revealed that anomalously hot weather did not always, as often hypothesized, promote cyanobacteria in the nutrient-rich lake studied. The seasonal timing and duration of heat waves determined whether critical thresholds of thermal stratification, decisive for cyanobacterial bloom formation, were crossed. In addition, the temporal patterns of heat wave events influenced the summer abundance of some zooplankton species, which as predators may serve as a buffer by suppressing phytoplankton bloom formation. This thesis adds to the growing body of evidence that lake ecosystems have strongly responded to climatic changes of recent decades. It reaches beyond many previous studies of climate impacts on lakes by focusing on underlying mechanisms and explicitly considering multiple environmental changes. Key findings show that climate impacts are more severe in nutrient-rich than in nutrient-poor lakes. Hence, to develop lake management plans for the future, limnologists need to seek a comprehensive, mechanistic understanding of overlapping effects of the multi-faceted human footprint on aquatic ecosystems.
Weltweit haben Seeökosysteme auf den Klimawandel der letzten Jahrzehnte reagiert. Beobachtete Veränderungen eindeutig dem Klimawandel zuzuordnen, wird jedoch häufig dadurch erschwert, dass Seen gleichzeitig vielfachen anthropogenen Einflüssen ausgesetzt sind. Diese Arbeit trägt zu einem besseren Verständnis des Klimaeinflusses auf Algen bei, die am Anfang der Nahrungskette stehen und maßgeblich die Wasserqualität eines Sees beeinflussen können. Zum größten Teil stützt sich die Arbeit auf eine dreißigjährige Datenreihe eines unregelmäßig geschichteten Flachsees im Nordosten von Deutschland (Müggelsee), in dem sowohl steigende Wassertemperaturen als auch sinkende Nährstoffeinträge zu verzeichnen waren. Bei der Datenanalyse wurde ein neu erstelltes dynamisches Simulationsmodell, genetische Algorithmen zur Parametrisierung von Modellen, und statistische Methoden der Klassifizierung und Zeitreihenanalyse genutzt. Ergebnisse dieser Arbeit zeigen, dass nicht nur klimatische Faktoren sondern auch die Nährstoffverfügbarkeit im See den Zeitpunkt der Algenfrühjahrsblüte (Phänologie) beeinflussen. Durch eine Veränderung der Mechanismen, die zum Kollaps der Blüte führen, trat diese trotz ähnlich milder Winterbedingungen bei hoher Nährstoffverfügbarkeit früher auf als bei niedriger. Ein neuentwickelter Ansatz zur Modellierung von Phänologie erwies sich als geeignet, um vorherzusagen, wann Algen und ihre Räuber in einem künstlich periodisch angetriebenen Laborsystem ihre Populationshöhepunkte erreichten. Eine Verlängerung der Wachstumsperiode führte dazu, dass diese früher auftraten. Die Untersuchung, warum sich Blaualgen im betrachteten See während jüngster Hitzewellenereignisse überraschend unterschiedlich entwickelt hatten, ergab, dass ungewöhnlich warmes Wetter nicht wie häufig vermutet generell förderlich für ihre Entwicklung ist. Der Zeitpunkt und die Dauer der Hitzewellen waren entscheidend dafür, ob für Blaualgen kritische Schwellenwerte der thermischen Schichtung im See überschritten wurden. Zudem zeigte sich, dass saisonale Erwärmungsmuster einen bedeutenden Einfluss auf Räuber nahmen, die das Auftreten von Algenblüten verhindern können. Diese Arbeit reiht sich in eine wachsende Anzahl von Studien ein, die zeigen, dass Seeökosysteme bereits stark auf die Klimaveränderungen der letzen Jahrzehnte reagiert haben. Mit ihrem Fokus auf Mechanismen und der expliziten Berücksichtigung simultaner anthropogener Einflüsse geht diese Arbeit gleichzeitig über viele bisherige Studien hinaus, die sich auf reine Beobachtung und die Betrachtung klimatischer Faktoren beschränkten. Kernergebnisse deuten daraufhin, dass Klimafolgen in nährstoffreichen Seen stärker ausfallen als in nährstoffarmen Seen. Nur mit einem umfassenden, mechanistischen Verständnis des vielfältigen anthropogenen Einflusses wird eine hohe Wasserqualität in Seen auch in Zukunft aufrechtzuerhalten sein.
urn:nbn:de:kobv:517-opus-42346
4234
Parts of the thesis are published at:<br/>
chapter 1: Limnology and Oceanography, 53 (1): 1-13<br/>
chapter 2: Ecology 90 (11): 3099-3107
chapter 4 (revised version): Freshwater Biology:<br/>
DOI: <a href="http://dx.doi.org/10.1111/j.1365-2427.2010.02411.x">10.1111/j.1365-2427.2010.02411.x</a>
WI 1500
WI 4800
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Veronika Emilie Charlotte Huber
deu
uncontrolled
Klimawandel
deu
uncontrolled
Gewässer
deu
uncontrolled
Phytoplankton
deu
uncontrolled
Phänologie
deu
uncontrolled
Modellierung
eng
uncontrolled
climate change
eng
uncontrolled
freshwater
eng
uncontrolled
phytoplankton
eng
uncontrolled
phenology
eng
uncontrolled
modelling
Biowissenschaften; Biologie
open_access
Institut für Biochemie und Biologie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4101/huber_diss.pdf
4104
2010
deu
masterthesis
1
2010-06-01
--
--
Moby-Dick als Leerstelle und romantische Chiffre für die Aporie eines transzendentalen Signifikats
Moby-Dick as a semantic gap and romantic cipher for the aporia of a transcendental signified
Die Arbeit unternimmt den Versuch, Melvilles Moby-Dick als einen Vorboten postmoderner Literarizität in den Blick zu nehmen, der in seiner Autoreferentialität den eigenen textuellen Status kritisch-ironisierend reflektiert und Sprache als einen krisenhaften Zugang zu Welt und Kosmos ins Spiel bringt. Sie legt dar, dass Melvilles opus magnum ein im Verlaufe der abendländischen Philosophie epistemologisch und semiologisch virulent gewordenes Krisenbewusstsein vom "Phantasma der Umfassung der Wirklichkeit" (Lyotard) einerseits auf inhaltlicher und andererseits autoreferentiell auf der Ebene der écriture inszeniert. Entsprechend wird davon ausgegangen, dass die vom Text absorbierten Diskurse in ihrer schieren Vielzahl nicht als partikulare Bezüge hermeneutisch isoliert werden können, sondern stattdessen in ihrer Heterogenität selbst die zentrale Problematik illustrieren, in deren Dienst sie als konstitutive Elemente stehen: Statt positiven Sinn zu stiften, verunmöglichen sie jegliche interpretatorische Direktive und verweisen dadurch auf eine dem Roman inhärente negative Dimension von Sinn – sie sind also vielmehr Bestandteile eines verhandelten Problems als dessen Lösung. Nicht nur in den cetologischen Abschnitten des Romans – gleichwohl dort am offenkundigsten – lässt sich Melvilles spielerisch-dekonstruktiver Umgang mit westlichen Wissens- und Denkmodellen erkennen: Dringt man in ahabischer Manie(r) in das semantische Feld des Romans auf der Suche nach einem letzten Grund, einer inferentiellen Letztbegründung, gerät man in einen infiniten regressiven Strudel, der jede getroffene semantische Arretierung auf die Bedingungen ihrer Möglichkeit hin befragt und dadurch wieder aufbricht. Eine ishmaelische Lektüre des Moby-Dick bestünde darin, den Anspruch auf Letztbegründetheit im Sinne der différance Derridas aufzuschieben und sich damit der Gravitation eines transzendentalen Signifikats zu entziehen. Liest man die cetologischen Kapitel vor diesem Hintergrund, kann man in ihnen – so eine der zentralen Thesen der Arbeit – eine autoreferentielle Kontrastfolie erkennen, eine negative Exemplifikation dessen, wie sich der Moby-Dick nicht erfassen lässt: gewissermaßen eine Lektüreanleitung ex negativo. Wesentliche Merkmale der Melvilleschen écriture sind Ambivalenz, Parodie und Dialogizität. Er verwendet stilistische und motivische Versatzstücke, destruiert sie und unterläuft so permanent die Ernsthaftigkeit der den Roman strukturierenden Schicksalszeichen wie auch die interpretativen Anstrengungen des Lesers. Die Autorität des eigenen Diskurses wird ironisch unterminiert und der Text damit in einer Schwebe zwischen Parodie und Monomanie, Unabschließbarkeit und Universalanspruch gehalten. Als die figurativen Kraftfelder dieser konkurrierenden Paradigmen stehen Ahab und Ishmael auf der Handlungsebene personifizierend für die paradoxe Konstellation des gesamten Textes, der nicht die Auflösung oder Aufhebung seiner konfliktiven Elemente sucht, sondern als ästhetischer Ausdruck des Paradoxen feste Orientierungspunkt vorenthält. Anstatt beide Figuren und die ihnen zugrundeliegenden epistemologischen Strategien antagonistisch in Opposition zueinander zu stellen, begreift diese Arbeit sie als komplementäre Elemente eines romantischen Metatextes, der sie in eine konfliktive Rezeption einfasst. In Analogie zum Konzept der romantischen Ironie Friedrich Schlegels wird Ahab hierbei als prototypischer Allegorisierer begriffen, wohingegen Ishmael als Ironiker für die Relativierung derartig monomanischer Kraftakte steht – zwischen Anspannung und Abspannung, Unbedingtem und Bedingtem baut sich jene Dynamik auf, die den gesamten Text durchwaltet. Im Sinne der romantischen Universalpoesie ist der Moby-Dick nicht auf einen systemischen Abschluss hin orientiert, sondern besteht auf/aus seiner Unabschließbarkeit: Heterogenität, Inkonsequenz, Verworrenheit und mitunter Unverständlichkeit sind demnach keine Folgen kompositorischer Nachlässigkeit, sondern in ihrer Gesamtheit als das performative Moment der eigentlichen Mitteilung zu begreifen.
urn:nbn:de:kobv:517-opus-43073
4307
HT 6015
HT 1721
Matthias Peters
deu
uncontrolled
Melville
deu
uncontrolled
Moby-Dick
deu
uncontrolled
Romantik
deu
uncontrolled
Postmoderne
deu
uncontrolled
Metaphorologie
eng
uncontrolled
Melville
eng
uncontrolled
Moby-Dick
eng
uncontrolled
Romanticism
eng
uncontrolled
Postmodernism
eng
uncontrolled
Metaphorology
Amerikanische Literatur in in Englisch
open_access
Institut für Anglistik und Amerikanistik
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4104/peters_staatsexamen.pdf
4662
2010
deu
145
book
Universitätsverlag Potsdam
Potsdam
1
2010-11-10
--
--
Klassifikationen von Computerspielen
Classifications of computer games
Klassifikationen von Computerspielen widmet sich den Begriffen, mit denen Computerspiele zu Klassifikationszwecken versehen werden. Eine repräsentative Auswahl an derartigen Klassifikationsmodellen, die die Arbeiten von Designern, Journalisten, Pädagogen, Laien und expliziten Computerspielforschern abdeckt, wird vorgestellt und hinsichtlich ihrer Anwendbarkeit zur eindeutigen Bestimmung konkreter Spiele bewertet. Dabei zeigen sich zwei grundlegend verschiedene Herangehensweisen an die Problematik: „Kategorisierungen“ stellen feste Kategorien auf, in die einzelne Spiel eindeutig einsortiert werden sollen, während „Typologien“ die einzelnen Elemente von Spielen untersuchen und klassifizieren. Beide Ansätze werden analysiert und ihre jeweiligen Vor- und Nachteile aufgezeigt. Da offensichtlich wird, dass die Klassifikation von Computerspielen in bedeutendem Maße vom jeweiligen zugrunde liegenden Verständnis davon, was ein „Computerspiel“ sei, abhängt, ist der Untersuchung der Klassifikationsmodelle eine Betrachtung dieser problematischen Begriffsdefinition vorangestellt, die beispielhaft an vier ausgewählten Aspekten durchgeführt wird.
Classifications of computer games is concerned with the terms that are used to label computer games for classificatory purposes. A representative selection of such classification models, that covers the works of designers, journalists, pedagogues, laymen and explicit computer game researchers, are introduced and assessed with regard to their ability to classify specific games unambiguously. Two essentially different approaches to this problem are identified: “categorizations” establish rigid categories to which single games are to be assigned unambiguously, while “typologies” examine and classify single elements of games and not games as a whole. Both methods are analysed and their advantages and disadvantages are shown. As it becomes obvious that classifying computer games is highly dependent on the respective basic understanding of what a computer game is, the study of the classification models is preceded by an overview which discusses four chosen aspects as examples of this problematic definition.
urn:nbn:de:kobv:517-opus-43901
4390
978-3-86956-076-2
<hr/>In Printform erschienen im <a href="http://info.ub.uni-potsdam.de/verlag.htm">Universitätsverlag Potsdam</a>:<br/><br/>Klassifikationen von Computerspielen / Angelika Richter. - Potsdam : Universitätsverlag Potsdam, 2010. - 145 S. : Ill., graph. Darst.<br/>(DIGAREC Series ; 05)<br/>ISSN 1867-6219 <br/>ISBN 978-3-86956-076-2 <br/>--> <a href="http://info.ub.uni-potsdam.de/cgi-bin/publika/view.pl?id=589">bestellen</a><hr/>
AP 15963 ; SU 500
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Angelika Richter
DIGAREC Series
05
deu
uncontrolled
Computerspiele
deu
uncontrolled
Videospiele
deu
uncontrolled
Klassifikation
deu
uncontrolled
Typologie
deu
uncontrolled
Ludologie
eng
uncontrolled
computer games
eng
uncontrolled
video games
eng
uncontrolled
classification
eng
uncontrolled
typology
eng
uncontrolled
ludology
Künste; Bildende und angewandte Kunst
open_access
DIGAREC Series, ISSN 1867-6227
DIGAREC Series (2010) 05
Institut für Künste und Medien
Universitätsverlag Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4662/digarec05.pdf
4665
2010
eng
doctoralthesis
1
2010-11-11
--
2010-10-29
The effect of water storages on temporal gravity measurements and the benefits for hydrology
Der Effekt von Wasserspeicher auf zeitabhängige Gravitationsmessungen und der Nutzen für die Hydrologie
Temporal gravimeter observations, used in geodesy and geophysics to study variation of the Earth’s gravity field, are influenced by local water storage changes (WSC) and – from this perspective – add noise to the gravimeter signal records. At the same time, the part of the gravity signal caused by WSC may provide substantial information for hydrologists. Water storages are the fundamental state variable of hydrological systems, but comprehensive data on total WSC are practically inaccessible and their quantification is associated with a high level of uncertainty at the field scale. This study investigates the relationship between temporal gravity measurements and WSC in order to reduce the hydrological interfering signal from temporal gravity measurements and to explore the value of temporal gravity measurements for hydrology for the superconducting gravimeter (SG) of the Geodetic Observatory Wettzell, Germany. A 4D forward model with a spatially nested discretization domain was developed to simulate and calculate the local hydrological effect on the temporal gravity observations. An intensive measurement system was installed at the Geodetic Observatory Wettzell and WSC were measured in all relevant storage components, namely groundwater, saprolite, soil, top soil and snow storage. The monitoring system comprised also a suction-controlled, weighable, monolith-filled lysimeter, allowing an all time first comparison of a lysimeter and a gravimeter. Lysimeter data were used to estimate WSC at the field scale in combination with complementary observations and a hydrological 1D model. Total local WSC were derived, uncertainties were assessed and the hydrological gravity response was calculated from the WSC. A simple conceptual hydrological model was calibrated and evaluated against records of a superconducting gravimeter, soil moisture and groundwater time series. The model was evaluated by a split sample test and validated against independently estimated WSC from the lysimeter-based approach. A simulation of the hydrological gravity effect showed that WSC of one meter height along the topography caused a gravity response of 52 µGal, whereas, generally in geodesy, on flat terrain, the same water mass variation causes a gravity change of only 42 µGal (Bouguer approximation). The radius of influence of local water storage variations can be limited to 1000 m and 50 % to 80 % of the local hydro¬logical gravity signal is generated within a radius of 50 m around the gravimeter. At the Geodetic Observatory Wettzell, WSC in the snow pack, top soil, unsaturated saprolite and fractured aquifer are all important terms of the local water budget. With the exception of snow, all storage components have gravity responses of the same order of magnitude and are therefore relevant for gravity observations. The comparison of the total hydrological gravity response to the gravity residuals obtained from the SG, showed similarities in both short-term and seasonal dynamics. However, the results demonstrated the limitations of estimating total local WSC using hydrological point measurements. The results of the lysimeter-based approach showed that gravity residuals are caused to a larger extent by local WSC than previously estimated. A comparison of the results with other methods used in the past to correct temporal gravity observations for the local hydrological influence showed that the lysimeter measurements improved the independent estimation of WSC significantly and thus provided a better way of estimating the local hydrological gravity effect. In the context of hydrological noise reduction, at sites where temporal gravity observations are used for geophysical studies beyond local hydrology, the installation of a lysimeter in combination with complementary hydrological measurements is recommended. From the hydrological view point, using gravimeter data as a calibration constraint improved the model results in comparison to hydrological point measurements. Thanks to their capacity to integrate over different storage components and a larger area, gravimeters provide generalized information on total WSC at the field scale. Due to their integrative nature, gravity data must be interpreted with great care in hydrological studies. However, gravimeters can serve as a novel measurement instrument for hydrology and the application of gravimeters especially designed to study open research questions in hydrology is recommended.
Zeitabhängigen Gravimetermessungen, die in der Geodäsie und der Geophysik eingesetzt werden, um Variationen des Erdschwerefelds zu messen, werden durch lokale Wasserspeicheränderungen beeinflusst und verursachen – aus dieser Perspektive – ein hydrologisches Störsignal in den Gravimetermessungen. Gleichzeitig bietet der Teil des Gravimetersignals, der durch Wasserspeicheränderungen hervorgerufen wird, das Potential wichtige Informationen über hydrologische Speicher zu gewinnen, da zwar Wasserspeicher eine grundlegende Zustandsgröße hydrologischer Systeme darstellt, jedoch ihre Quantifizierung mit einem hohen Maß an Unsicherheiten auf der Feldskala behaftet ist. Diese Studie untersucht die Beziehung zwischen zeitabhängigen Gravimetermessungen und Wasserspeicheränderungen, um die Gravimetermessungen von dem hydrologischen Störsignal zu bereinigen und um den Nutzen der Gravimetermessungen für die Hydrologie zu erkunden. Dies geschieht am Beispiel des Supraleitgravimeters (SG) des Geodätischen Observatoriums Wettzell in Deutschland. Ein 4D Vorwärtsmodel mit einer räumlich genesteten Diskretisierungsdomäne wurde entwickelt, um die lokalen hydrologischen Masseneffekte auf Gravimetermessungen zu simulieren. Des Weiteren wurde ein intensives Messsystem am Geodätischen Observatorium Wettzell installiert, um die Wasserspeicheränderungen in allen relevanten Speicherkomponenten, also im dem Grundwasser, in der ungesättigten Zone und im Schneespeicher zu messen. Das Monitoringsystem beinhaltete auch einen wägbaren, monolithischen Lysimeter mit Matrixpotentialübertragung, der es uns ermöglichte, zum ersten Mal einen Lysimeter direkt mit einem Gravimeter zu vergleichen. Die Lysimetermessungen wurden in Kombination mit komplementären hydrologischen Beobachtungen und einem 1D-Modell verwendet, um die Wasserspeicheränderungen auf der Feldskala zu bestimmen. Die Gesamtwasserspeicheränderungen wurden bestimmt, Unsicherheiten abgeschätzt und der hydrologische Masseneffekt auf Gravimetermessungen berechnet. Schlussendlich wurde ein einfaches, konzeptionelles, hydrologisches Modell mittels der Zeitreihen von dem SG, Bodenfeuchte- und Grundwassermessungen kalibriert und evaluiert. Das Modell wurde durch einen “Split-Sample-Test” evaluiert und basierend auf unabhängig bestimmten Wasserspeicheränderungen bestimmt auf Grundlage der Lysimetermessungen validiert. Die Simulation des hydrologischen Masseneffektes auf Gravimetermessungen zeigte, dass Wasserspeicheränderungen von einem Meter Höhe entlang der Topographie, einen Erdschwereeffekt von 52 µGal hervorriefen, während in der Geodäsie im Allgemeinen die gleiche Wassermassenvariation in flachem Terrain eine Erdschwereeffekt von nur 42 µGal (Bouguer-Platte) hervorruft. Der Einflussradius der lokalen Wasserspeicheränderungen kann auf 1000 m begrenzt werden, und 50 % bis 80 % des lokalen hydrologischen Erdschweresignals wird in einem Radius von 50 m um den Gravimeter generiert. Wasserspeichervariationen in der Schneedecke, im Oberboden, dem ungesättigten Saprolith und im gelüfteten Aquifer, sind allesamt wichtige Größen der lokalen Wasserbilanz. Mit der Ausnahme von Schnee beeinflussen alle Speicheränderungen die Gravimetermessungen in derselben Größenordnung und sind daher für die Gravimetermessungen von Bedeutung. Ein Vergleich des lokalen hydrologischen Gravitationseffektes mit den SG Residuen zeigte sowohl ereignisbezogene als auch saisonalen Übereinstimmungen. Weiterhin zeigten die Ergebnisse jedoch auch die Grenzen bei der Bestimmung der gesamten lokalen Wasserspeichervariationen mithilfe hydrologischer Punktmessungen auf. Die Ergebnisse des Lysimeter-basierten Ansatzes zeigten, dass SG Residuen mehr noch, als bisher aufgezeigt, durch lokale Wasserspeicheränderungen hervorgerufen werden. Ein Vergleich der Resultate mit anderen Methoden, die in der Vergangenheit zur Korrektur zeitabhängiger Erdschwerebeobachtungen durch Bestimmung des lokalen hydrologischen Masseneffekte verwendet wurden, zeigte, dass die unabhängige Berechnung von Wasserspeicheränderungen durch Lysimetermessungen erheblich verbessert werden kann und dass diese somit eine verbesserte Methode zur Bestimmung des lokalen hydrologischen Erdschwereeffekts darstellt. Die Installation eines Lysimeters ist somit im Zusammenhang mit einer Reduzierung des hydrologischen Störsignals und an Standorten, wo zeitabhängige Erdschwerebeobachtungen für geophysikalische Studien, die über die lokale Hydrologie hinausgehen verwendet werden, zu empfehlen. Aus hydrologischer Sicht zeigte diese Studie, dass die Verwendung von zeitabhängigen Gravimetermessungen als Kalibrierungsdaten die Modellergebnisse im Vergleich zu hydrologischen Punktmessungen verbesserten. Auf Grund ihrer Fähigkeit, über verschiedene Speicherkomponenten und ein größeres Gebiet zu integrieren, bieten Gravimeter verallgemeinerte Informationen über die Gesamtwasserspeicherveränderungen auf der Feldskala. Diese integrative Eigenschaft macht es notwendig, Erdschweredaten in hydrologischen Studien mit großer Vorsicht zu interpretieren. Dennoch können Gravimeter der Hydrologie als neuartiges Messinstrument dienen und die Nutzung von Gravimetern, die speziell für die Beantwortung noch offener Forschungsfragen der Hydrologie entwickelt wurden wird hier empfohlen.
urn:nbn:de:kobv:517-opus-48575
4857
MSC-Klassifikation: 86-05 , 83B05 , 83-05
<hr/>
The present work constitutes a cumulative dissertation. It includes four articles of internationally accredited scientific journals, with one being published, one in print, and two under review by the time the dissertation was submitted to the University of Potsdam. The publication of all four articles could be completed, by the time of the defense of the present thesis:
<br/><br/>
Creutzfeldt, B., A. Güntner, T. Klügel, and H. Wziontek (2008), Simulating the influence of water storage changes on the superconducting gravimeter of the Geodetic Observatory Wettzell, Germany, Geophysics, 73(6), WA95-WA104<br/>
<a href="http://dx.doi.org/10.1190/1.2992508">doi:10.1190/1.2992508</a>
<br/><br/>
Creutzfeldt, B., A. Güntner, H. Thoss, B. Merz, and H. Wziontek (2010), Measuring the effect of local water storage changes on in-situ gravity observations: Case study of the Geodetic Observatory Wettzell, Germany, Water Resources Research, 46, W08531
<a href="http://dx.doi.org/10.1029/2009WR008359">doi:10.1029/2009WR008359</a><br/>
<br/><br/>
Creutzfeldt, B., A. Güntner, S. Vorogushyn, and B. Merz (2010), The benefits of gravimeter observations for modelling water storage changes at the field scale, Hydrol. Earth Syst. Sci. , 14, 1715-1730<br/>
<a href="http://dx.doi.org/10.5194/hess-14-1715-2010">doi:10.5194/hess-14-1715-2010</a>
<br/><br/>
Creutzfeldt, B., A. Güntner, H. Wziontek, and B. Merz (2010), Reducing local hydrology from high precision gravity measurements: a lysimeter-based approach, Geophysical Journal International, 183(1), 178-187<br/> <a href="http://dx.doi.org/10.1111/j.1365-246X.2010.04742.x">doi:10.1111/j.1365-246X.2010.04742.x</a>
UT 2350
UT 4700
UT 1080
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Noah Angelo Benjamin Creutzfeldt
deu
uncontrolled
Hydrogeopyhsik
deu
uncontrolled
zeitabhängige Gravitationsvariation
deu
uncontrolled
Wasserspeicheränderungen
deu
uncontrolled
Supraleitender Gravimeter (SG)
deu
uncontrolled
hydrologische Modellierung
eng
uncontrolled
Hydrogeophysics
eng
uncontrolled
temporal gravity variations
eng
uncontrolled
water storage changes
eng
uncontrolled
superconducting gravimeter (SG)
eng
uncontrolled
hydrological monitoring and modelling
Geowissenschaften
open_access
Institut für Geowissenschaften
Institut für Erd- und Umweltwissenschaften
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4665/creutzfeldt_diss.pdf
4666
2010
deu
v, 212
doctoralthesis
Universitätsverlag Potsdam
Potsdam
1
2010-11-11
--
2010-05-05
Das Städtesystem der Russischen Föderation aus Sicht der Neuen Ökonomischen Geographie
The Russian system of cities from the perspective of New Economic Geography
Der Anstieg der Energiepreise kann zu einer länger anhaltenden Verteuerung von Gütertransporten führen. Welche Auswirkungen haben steigende Transportkosten auf die Entwicklung von Städtesystemen? Ein solcher Transportkostenanstieg hat in der Russischen Föderation nach der Preisliberalisierung 1992 real, d.h. in Relation zu den Preisen anderer Gütergruppen stattgefunden. Gleichzeitig stellt die Bevölkerungsstatistik der Russischen Föderation Daten bereit, mit deren Hilfe Hypothesen zur Entwicklung von Städtesystemen unter dem Einfluss steigender Transportkosten geprüft werden können. Diese Daten werden in der vorliegenden Arbeit umfassend ausgewertet. Den theoretischen Hintergrund liefert die Modellierung eines Städtesystems mit linearer Raumstruktur im Rahmen der Neuen Ökonomischen Geographie. Damit wird ein Werkzeug geschaffen, das auch auf weiträumige Städtesysteme mit ausgeprägter Bandstruktur angewendet werden kann. Die hier erstmals erfolgte ausführliche Erläuterung des zu Grunde liegenden Theorieansatzes versteht sich als Ergänzung der Standardlehrbücher der Raumwirtschaftstheorie. Die Ergebnisse der empirischen Untersuchung bestätigen die Prognose des Modells, dass in großflächigen Ländern bzw. Regionen mit Ähnlichkeit zur unterstellten Raumstruktur ein Anstieg der Transportkosten Konzentrationstendenzen in den Zentren befördert, während die peripheren Regionen zunehmend abgekoppelt werden.
The rise in energy prices may result in long-lasting rise in costs of freight transports. Which effects do rising freight transport costs have for the development of urban systems? Such rise of transport costs in real terms has happened in Russia after price liberalisation in 1992. At the same time, the Russian official demographic statistics provides data that can be used to test hypotheses concerning the development of urban systems affected by rising transport costs. In the present study, these data are comprehensively evaluated. The theoretical background is provided by modelling of a linear shaped urban system in the framework of New Economic Geography. By means of this tool, analysis can be applied to spacious urban systems with large transport distances. For the first time, the underlying theoretical approach is explained in detail. The empirical results provide evidence for the outcomes of the theoretical model: In spacious countries or regions, respectively, whose urban systems are drawn-out on long lines, rising costs of freight transport are conducive to tendencies of concentration of population in large cities in the centre of the system, while peripheral regions are increasingly disconnected.
urn:nbn:de:kobv:517-opus-44520
4452
978-3-86956-074-8
<hr/>JEL-Klassifikation: R49 , R23 , R13 , R12 , P25
QY 000 ; QC 150
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Albrecht Kauffmann
Potsdamer Schriften zur Raumwirtschaft
2
deu
uncontrolled
Russland
deu
uncontrolled
Städtesysteme
deu
uncontrolled
Neue Ökonomische Geographie
deu
uncontrolled
Wanderungen
eng
uncontrolled
Russia
eng
uncontrolled
urban systems
eng
uncontrolled
New Economic Geography
eng
uncontrolled
migration
Wirtschaft
open_access
Wirtschaftswissenschaften
Universitätsverlag Potsdam
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4666/psrw02.pdf
4669
2010
deu
372
doctoralthesis
Universitätsverlag Potsdam
Potsdam
1
2010-11-18
--
2009-10-30
Evaluation kommunaler Sportprojekte zur sozialen Integration von Heranwachsenden
Evaluation of community sports projects focusing on the social integration of adolescents
Gegenstand der Studie ist die Evaluation eines kommunalen Sportprojekts. Die Forschungsarbeit entstand aus der wachsenden Erkenntnis heraus, dass es nicht mehr nur um die Entwicklung und Durchführung kommunaler oder sozialer Projekte geht, sondern zunehmend darauf ankommt, die Projektarbeit zu evaluieren, um ihren Einfluss auf die kommunale, soziale und personale Entwicklung zu prüfen und in der Folge die Implementierung zu optimieren. Die unterschiedlichen Schritte in der Definition des theoretischen Rahmens, der Datenanalyse sowie der Erarbeitung der evaluativen Empfehlungen wurden unternommen mit dem Anspruch auf Modellcharakter, um für zukünftige Evaluationsvorhaben entsprechende Standards zu setzen. Die Grundidee des kommunalen Sportprojekts „Straßenfußball für Toleranz“ ist innovativ: Mädchen und Jungen erobern durch gemeinsames Fußballspielen den öffentlichen Raum. Sie spielen ohne Schiedsrichter und nach speziellen Regeln. Das Projekt richtet sich ausdrücklich an sozial benachteiligte Jugendliche und bezieht gleichermaßen Jungen wie Mädchen ein.
The objective of the study is the evaluation of a community sports project. The thesis originated from the growing perception that it is not only about initiating and implementing a communal or social project but that the focus is increasingly also on the evaluation of the project work in order to measure its impact on communal, social and personal development and to optimise the implementation as a consequence. The different steps in the definition of the theoretical framework, the data analysis as well as the formulation of the evaluative recommendations were conducted with the pretension to set standards for future evaluation projects. The basic concept of the community sports project “Street Football for Tolerance” is innovative: boys and girls jointly conquer public spaces by playing football. They play without a referee and according to special rules. The project explicitly reaches out to socially disadvantaged adolescents, with the aim that boys and girls are equally involved.
urn:nbn:de:kobv:517-opus-48186
4818
978-3-86956-051-9
<hr/>In Printform erschienen im <a href="http://info.ub.uni-potsdam.de/verlag.htm">Universitätsverlag Potsdam</a>:<br/><br/>Evaluation kommunaler Sportprojekte zur sozialen Integration von Heranwachsenden / Vladimir Borković. - Potsdam : Universitätsverlag Potsdam, 2010. - 372 S. : graph. Darst.<br/>Zugl.: Potsdam, Univ., Diss., 2009<br/>ISBN 978-3-86956-051-9 <br/>--> <a href="http://info.ub.uni-potsdam.de/cgi-bin/publika/view.pl?id=591">bestellen</a><hr/>
ZY 2020 ; ZX 7120
borkovic@streetfootballworld.org
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Vladimir Borković
deu
uncontrolled
Evaluation
deu
uncontrolled
Sozialisation
deu
uncontrolled
soziale Integration
deu
uncontrolled
Straßenfußball
eng
uncontrolled
evaluation
eng
uncontrolled
socialisation
eng
uncontrolled
social integration
eng
uncontrolled
street football
Sportarten, Sportspiele
open_access
Universitätsverlag Potsdam
Department Sport- und Gesundheitswissenschaften
Institut für Sportwissenschaft
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4669/borkovic_diss.pdf
4722
2010
deu
108
book
Universitätsverlag Potsdam
Potsdam
1
2010-12-23
--
--
Das politische System Kenias : Autokratie versus Demokratie
Kenia erlangt Anfang der 1960er seine Unabhängigkeit und wird in der Folge von den Präsidenten Kenyatta und später Moi autoritär regiert. Als Konsequenz des internationalen und nationalen Druckes werden 1991 wieder Mehrparteienwahlen zugelassen. Die Hoffnungen auf einen Trendwechsel werden zunächst aber nicht erfüllt. Präsident Moi bleibt bei den Wahlen 1992 und 1997 siegreich und versucht jeden möglichen Reformprozess aufzuhalten bzw. zu verlangsamen. Mit dem neu gewählten Präsidenten Kibaki entsteht 2002 die Hoffnung auf Veränderung. Aber als alter Wegbegleiter Mois erfüllt Kibaki nicht die internationalen und nationalen Erwartungen. Moi und Kibaki organisieren jeweils kontra-demokratische Eliten hinter sich und nutzen das mächtige Präsidentenamt, die stärkste Institution im politischen System Kenias, um den Status quo so lange wie möglich zu erhalten. Die Parteien werden weder durch die Regierung noch durch die Opposition zu starken Institutionen transformiert und das unstete Verhalten der Geberländer vermag den Einfluss der autoritären Führung nicht dauerhaft einzuschränken.
urn:nbn:de:kobv:517-opus-47947
4794
978-3-86956-097-7
<hr/>In Printform erschienen im <a href="http://info.ub.uni-potsdam.de/verlag.htm">Universitätsverlag Potsdam</a>:<br/><br/>Kaltschew, Kristian:<br/> Das politische System Kenias : Autokratie versus Demokratie / Kristian Kaltschew. - Potsdam : Universitätsverlag Potsdam, 2010. - 108 S. : Ill., graph. Darst., Kt.<br/>(WeltTrends Thesis ; 10)<br/>Zugl.: Potsdam, Univ., Magisterarbeit, 2010<br/>ISBN 978-3-86956-097-7<br/>--> <a href="http://info.ub.uni-potsdam.de/cgi-bin/publika/view.pl?id=603">bestellen</a><hr/>
MI 54000 ; MB 1100 ; NK 4300 ; NK 4375
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Kristian Kaltschew
WeltTrends Thesis
10
deu
uncontrolled
Kenia
deu
uncontrolled
Demokratie
deu
uncontrolled
Autokratie
deu
uncontrolled
Geschichte
deu
uncontrolled
Afrika
eng
uncontrolled
Kenya
eng
uncontrolled
democrazy
eng
uncontrolled
autocracy
eng
uncontrolled
history
eng
uncontrolled
Africa
Politikwissenschaft
open_access
WeltTrends e.V. Potsdam
Universitätsverlag Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4722/wtthesis10.pdf
4723
2010
deu
doctoralthesis
1
2010-12-23
--
2010-12-06
Charakterisierung der troposphärischen Aerosolvariabilität in der europäischen Arktis
Characterization of tropospheric aerosol variability in the european Arctic
Auf der Grundlage von Sonnenphotometermessungen an drei Messstationen (AWIPEV/ Koldewey in Ny-Ålesund (78.923 °N, 11.923 °O) 1995–2008, 35. Nordpol Driftstation – NP-35 (84.3–85.5 °N, 41.7–56.6 °O) März/April 2008, Sodankylä (67.37 °N, 26.65 °O) 2004–2007) wird die Aerosolvariabilität in der europäischen Arktis und deren Ursachen untersucht. Der Schwerpunkt liegt dabei auf der Frage des Zusammenhanges zwischen den an den Stationen gemessenen Aerosolparametern (Aerosol optische Dicke, Angström Koeffizient, usw.) und dem Transport des Aerosols sowohl auf kurzen Zeitskalen (Tagen) als auch auf langen Zeitskalen (Monate, Jahre). Um diesen Zusammenhang herzustellen, werden für die kurzen Zeitskalen mit dem Trajektorienmodell PEP-Tracer 5-Tage Rückwärtstrajektorien in drei Starthöhen (850 hPa, 700 hPa, 500 hPa) für die Uhrzeiten 00, 06, 12 und 18 Uhr berechnet. Mit Hilfe der nicht-hierarchischen Clustermethode k-means werden die berechneten Rückwärtstrajektorien dann zu Gruppen zusammengefasst und bestimmten Quellgebieten und den gemessenen Aerosol optischen Dicken zugeordnet. Die Zuordnung von Aerosol optischer Dicke und Quellregion ergibt keinen eindeutigen Zusammenhang zwischen dem Transport verschmutzter Luftmassen aus Europa oder Russland bzw. Asien und erhöhter Aerosol optischer Dicke. Dennoch ist für einen konkreten Einzelfall (März 2008) ein direkter Zusammenhang von Aerosoltransport und hohen Aerosol optischen Dicken nachweisbar. In diesem Fall gelangte Waldbrandaerosol aus Südwestrussland in die Arktis und konnte sowohl auf der NP-35 als auch in Ny-Ålesund beobachtet werden. In einem weiteren Schritt wird mit Hilfe der EOF-Analyse untersucht, inwieweit großskalige atmosphärische Zirkulationsmuster für die Aerosolvariabilität in der europäischen Arktis verantwortlich sind. Ähnlich wie bei der Trajektorienanalyse ist auch die Verbindung der atmosphärischen Zirkulation zu den Photometermessungen an den Stationen in der Regel nur schwach ausgeprägt. Eine Ausnahme findet sich bei der Betrachtung des Jahresganges des Bodendruckes und der Aerosol optischen Dicke. Hohe Aerosol optische Dicken treten im Frühjahr zum einen dann auf, wenn durch das Islandtief und das sibirische Hochdruckgebiet Luftmassen aus Europa oder Russland/Asien in die Arktis gelangen, und zum anderen, wenn sich ein kräftiges Hochdruckgebiet über Grönland und weiten Teilen der Arktis befindet. Ebenso zeigt sich, dass der Übergang zwischen Frühjahr und Sommer zumindest teilweise bedingt ist durch denWechsel vom stabilen Polarhoch im Winter und Frühjahr zu einer stärker von Tiefdruckgebieten bestimmten arktischen Atmosphäre im Sommer. Die geringere Aerosolkonzentration im Sommer kann zum Teil mit einer Zunahme der nassen Deposition als Aerosolsenke begründet werden. Für Ny-Ålesund wird neben den Transportmustern auch die chemische Zusammensetzung des Aerosols mit Hilfe von Impaktormessungen an der Zeppelinstation auf dem Zeppelinberg (474m ü.NN) nahe Ny-Ålesund abgeleitet. Dabei ist die positive Korrelation der Aerosoloptischen Dicke mit der Konzentration von Sulfationen und Ruß sehr deutlich. Beide Stoffe gelangen zu einem Großteil durch anthropogene Emissionen in die Atmosphäre. Die damit nachweisbar anthropogen geprägte Zusammensetzung des arktischen Aerosols steht im Widerspruch zum nicht eindeutig herstellbaren Zusammenhang mit dem Transport des Aerosols aus Industrieregionen. Dies kann nur durch einen oder mehrere gleichzeitig stattfindende Transformationsprozesse (z. B. Nukleation von Schwefelsäurepartikeln) während des Transportes aus den Quellregionen (Europa, Russland) erklärt werden.
On the base of sun photometer measurements conducted at three different research stations (AWIPEV/Koldewey in Ny-Ålesund (78.923 °N, 11.923 °E) 1995-2008, 35. Northpole Drifting Station – NP-35 (84.3–85.5 °N, 41.7–56.6 °E) March/April 2008, Sodankylä (67.37 °N, 26.65 °E) 2004-2007) the aerosol variability in the european Arctic and their cause is analyzed. The main focus is to quantify the correlation between the measured aerosol parameters (aerosol optical depth, Angström coefficient, etc.) and the transport of aerosol from Europe and Russia on short timescales (days) as well as on long timescales (months, years). For the short timescales 5-day backward trajectories were calculated with the trajectory model PEP-Tracer at three different starting heights (850 hPa, 700 hPa, 500 hPa) four times the day (00:00, 06:00, 12:00, 18:00 UTC). Afterwards the non-hierarchical cluster method k-means is used to group the backward trajectories in differend aerosol source regions and allocate to the respective sun photometer measurements. This allocation of aerosol source region and sun photometer measurements does not show a correlation between polluted air mass of european or russian/asian origin and enhanced aerosol optical depth. However, in one case (March 2008) a clear influence of anthropogenic aerosol on the photometer measurements occurs. In March 2008, aerosol originating at forest fires in southeast Russia was transported into the Arctic and detected over NP-35 as well as Ny-Ålesund. Furthermore, the EOF method is used to verify if large-scale atmospheric circulation patterns determine the arctic aerosol variability. However, the connection to the sun photometer measurements is very weak except for seasonal variability. It is shown, that in spring-time due to the Iclandic low and the Siberian high, air masses from Europe and Russia as well as a strong high pressure system at Greenland and most parts of the Arctic cause higher aerosol optical depths in Ny-Ålesund. The transition from spring to summer aerosol concentration can at least partially be assigned to the replacement of the stable polar high in winter and spring by low pressure systems in summer. In addition to the transport pattern, chemical composition of the scattering aerosol in Ny-Ålesund was deduced from measurements by the Zeppelin station at the Zeppelin mountain (474m above sea level) near Ny-Ålesund. A clear positive correlation between sulfate and black carbon concentration was found. Both chemicals are mostly emitted through anthropogenic processes (e.g. combustion). The verifiable anthropogenic influence on the composition of arctic aerosols disagree with the missing linkage of transport from industrial regions to aerosol optical depth. It can only be explained by one or more transformation processes (e.g. nucleation of sulfuric acid) during the transport from the source regions (Europe, Russia) to the Arctic.
urn:nbn:de:kobv:517-opus-49203
4920
UT 9100
UT 8600
UT 6000
Maria Stock
deu
uncontrolled
Aerosol
deu
uncontrolled
Arktis
deu
uncontrolled
Trajektorien
deu
uncontrolled
EOF
deu
uncontrolled
Luftmassentransport
eng
uncontrolled
aerosol
eng
uncontrolled
Arctic
eng
uncontrolled
trajectories
eng
uncontrolled
EOF
eng
uncontrolled
air mass transport
Physik
open_access
Institut für Physik und Astronomie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4723/stock_diss.pdf
4726
2010
deu
322
doctoralthesis
Universitätsverlag Potsdam
Potsdam
1
2010-12-23
--
2010-09-29
Privatisierung des Maßregelvollzugs nach §§ 63, 64 StGB, § 7 JGG und der Aufgaben nach §§ 81, 126a StPO - dargestellt am Beispiel des Brandenburger Modells
Privatisation of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO - shown with the help of the Brandenburg model
Obwohl Privatisierung in den letzten Jahren und Jahrzehnten ein Kernthema nicht nur der rechtswissenschaftlichen Debatte gewesen ist, wurde der Bereich der Privatisierung des Maßregelvollzugs nach §§ 63, 64 StGB, § 7 JGG sowie der Aufgaben nach §§ 81, 126a StPO insoweit vernachlässigt. Vor dem Hintergrund hauptsächlich fiskalischer Erwägungen und den Möglichkeiten einer Flucht aus dem Beamten- und dem Haushaltsrecht geraten zunehmend auch solche Bereiche in den Blickpunkt von Privatisierungsüberlegungen, die bisher selbstverständlich dem Bereich staatlicher Tätigkeit zugerechnet werden. Der Staat versteht sich zunehmend als Gewährleistungsstaat, der staatliche Aufgaben nicht mehr eigenhändig erfüllt, sondern sich hierfür der Leistung Dritter bedient. Bislang wurden der Maßregelvollzug nach §§ 63, 64 StGB und § 7 JGG sowie die Unterbringung zur Beobachtung des Beschuldigten nach § 81 StPO und die einstweilige Unterbringung nach § 126a StPO durch den Staat in den (staatlichen) Landeskliniken vollzogen. Auf der im Jahr 2004 eingeführten Rechtsgrundlage des § 36 Abs. 3 S. 2 und S. 5 BbgPsychKG entwickelte das Land Brandenburg ein Modell, um die Durchführung der genannten Aufgaben zu privatisieren, und gliederte die Landeskliniken im Jahr 2006 aus der Landesverwaltung aus. Der Autor untersucht die verfassungsrechtliche Zulässigkeit dieses Privatisierungsvorhabens in formeller und materieller Hinsicht. Eine Besonderheit der Veröffentlichung besteht darin, dass die Arbeit konkrete Aussagen zur Ausgestaltung des Regel-Ausnahme-Verhältnisses des Funktionsvorbehalts nach Art. 33 Abs. 4 GG enthält. Daran fehlte es bislang. Daneben untersucht der Autor einfachgesetzliche Grenzen für Privatisierungen des Maßregellzugs nach §§ 63, 64 StGB, § 7 JGG und der Aufgaben nach §§ 81, 126a StPO sowie solche Privatisierungsgrenzen, die sich aus internationalen Menschenrechtsstandards ergeben.
Although privatisation has been a main subject not only the legal-scientific debate during the last years and decades, the area of the privatisation of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO was neglected in this respect. Before the background of primarily fiscal considerations and the possibilities of an escape from the official's right and the budgetary right, such areas get increasingly also in the point of view of the privatisation considerations which are added up to now of course to the area of state activity. The state gets on increasingly as a guarantee state which does not fulfil state duties any more own-handed, but for this of the achievement third helps himself. Up to now the hospital order treatment after §§ 63, 64 StGB and § 7 JGG as well as the accommodation to the observation of the culprit after § 81 StPO and the temporary accommodation after § 126a StPO were carried out by the state in the (state) land medical centres. On the legal basis § 36 paragraph 3 p. 2 and p. 5 BbgPsychKG, introduced in 2004, the State of Brandenburg developed a model to privatise the realisation of the called duties, and separated the land medical centres in 2006 from the land management. The author examines the constitutional-juridical admissibility of this privatisation plan in formal and material regard. A specific feature of the publication consists in it, that the work concrete statements to the arrangement of the control exception relation of the functional reservation after article 33 paragraphs 4 GG contains enough. There was not this up to now. Besides the author examines easy-legal borders for privatisations of the hospital order treatment after §§ 63, 64 StGB, § 7 JGG and the duties after §§ 81, 126a StPO as well as such privatisation borders which arise from international standards of human rights.
urn:nbn:de:kobv:517-opus-48428
4842
978-3-86956-101-1
PH 5310 ; PL 388 ; QR 420
Sebastian Reinke
deu
uncontrolled
Privatisierung
deu
uncontrolled
Maßregelvollzug
deu
uncontrolled
§§ 81
deu
uncontrolled
126a StPO
deu
uncontrolled
Funktionsvorbehalt
deu
uncontrolled
Brandenburg
eng
uncontrolled
privatisation
eng
uncontrolled
hospital order treatment
eng
uncontrolled
§§ 81
eng
uncontrolled
126a StPO
eng
uncontrolled
functional reservation
eng
uncontrolled
Brandenburg
Recht
open_access
Strafrecht
Universitätsverlag Potsdam
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4726/reinke_diss.pdf
4676
2010
deu
456
book
Universitätsverlag Potsdam
Potsdam
1
2010-11-24
--
--
Brüche und Umbrüche
Frauen, Literatur und soziale Bewegungen
urn:nbn:de:kobv:517-opus-46029
4602
978-3-86956-085-4
<hr/>In Printform erschienen im <a href="http://info.ub.uni-potsdam.de/verlag.htm">Universitätsverlag Potsdam</a>:<br/><br/>Brüche und Umbrüche : Frauen, Literatur und soziale Bewegungen / Margrid Bircken, Marianne Lüdecke, Helmut Peitsch (Hrsg.). - Potsdam : Universitätsverlag Potsdam, 2010. - 456 S. : Ill.<br/>ISBN 978-3-86956-085-4 <br/>--> <a href="http://info.ub.uni-potsdam.de/cgi-bin/publika/view.pl?id=590">bestellen</a><hr/>
EC 2230 ; GM 1411
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Literatur und Rhetorik
open_access
Institut für Germanistik
Universitätsverlag Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4676/umbrueche.pdf
4656
2010
deu
book
1
2010-11-02
--
--
Die Vermögenslage öffentlicher Unternehmen in Deutschland : statistische Analyse anhand von amtlichen Mikrodaten der Jahresabschlüsse
Das Erkenntnisziel der Analyse der Vermögenslage ist die Gewinnung von Informationen über das Vermögen eines Unternehmens und seine Investitionstätigkeiten. In dieser Arbeit stellt das Definitionssystem der Jahresabschlussanalyse (in der Fachliteratur auch Bilanzanalyse genannt) die theoretische Grundlage für die statistische Analyse der Vermögenslage in der Gesamtheit öffentlicher Unternehmen dar. Die Vermögenslage wird mit Hilfe der aus der Bilanz ablesbaren Kennzahlen analysiert. Dabei stellen die Posten der Bilanz ursprüngliche Merkmale dar, auf deren Grundlage die zu untersuchenden Merkmale – Kennzahlen der Vermögenslage gebildet werden. Da die Heterogenität öffentlicher Unternehmen die Vergleichbarkeit der untersuchten Kennzahlen erschwert, stellt die Aufbereitung der Bilanz (Bildung der Strukturbilanz) in diesem Zusammenhang einen wichtigen Zwischenschritt in der Analyse dar, der allerdings schon dem Wirtschaftsprüfer erhebliche Kopfschmerzen bereiten kann, geschweige dem Statistiker. Eine einheitliche Strukturbilanz soll die Vergleichbarkeit der Bilanzkennzahlen gewähren. Die Vorgehensweise bei der Aufbereitung der Bilanz für eine Strukturbilanz wird in der Fachliteratur nicht eindeutig festgelegt. Die fachlichen Beiträge dort bestehen überwiegend aus Hinweisen und Empfehlungen zum Vorgehen in einzelnen Untenehmen, was natürlich gut nachzuvollziehen ist, da jedes Unternehmen eine eigene Spezifik hat. An dieser Stelle muss jedoch ein Statistiker, der sich weniger mit den einzelnen Fällen beschäftigt, sondern die Massenphänomene untersucht, auf eine einheitliche Variante der Bilanzaufbereitung zurückgreifen. Auf die Besonderheiten der Datenaufbereitung für öffentliche Unternehmen und die Bildung der Strukturbilanz soll an dieser Stelle nicht eingegangen werden. In dem folgenden Abschnitt werden die zu untersuchenden Merkmale - Kennzahlen der Vermögenslage definiert. Diesem schließt sich der Abschnitt mit den empirischen Ergebnissen an. Die Berechnungen wurden sowohl für die ganze Grundgesamtheit öffentlicher Unternehmen als auch an einigen Stellen für ihre einzelnen Klassen durchgeführt.
urn:nbn:de:kobv:517-opus-48545
4854
Zugleich gedruckt erschienen:<br/>
Dietrich, Irina; Strohe, Hans Gerhard: Die Vermögenslage öffentlicher Unternehmen in Deutschland : Statistische Analyse anhand von amtlichen Mikrodaten der Jahresabschlüsse / Irina Dietrich; Hans Gerhard Strohe. - Potsdam : Univ., 2010<br/>
(Statistische Diskussionsbeiträge ; 42)<br/>
ISSN 0949-068X
QH 200
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Irina Dietrich
Hans Gerhard Strohe
Statistische Diskussionsbeiträge
42
Sammlungen allgemeiner Statistiken
open_access
Wirtschaftswissenschaften
Universität Potsdam
https://publishup.uni-potsdam.de/files/4656/statdisk42.pdf
4657
2010
deu
82
61
workingpaper
1
2010-11-02
--
--
Steuern in Fragilen Staaten
Fragile states are characterized by institutions which do not have the political will or ability to reduce poverty in the interests of their citizen, to establish basic social security, to promote a successful development process, and to guarantee security and human rights. The regional disintegration processes after the period of imperialism and the fall of the iron curtain have created many new states, which still are politically unstable and unable for a sustainable development. In the literature such states are describes as "weak", "failing or failed", "collapsed", "conflict or post-conflict" - dependant on the extent of the particular state failure. Several indicators try to describe such states and partly allow for projections of the future development. Then the role of taxation is discussed in detail before recommendations for the development cooperation are presented. Obviously taxation plays a key role for the democratization process in fragile states.
Finanzwissenschaftliche Diskussionsbeiträge
Empfehlungen für die Entwicklungszusammenarbeit
urn:nbn:de:kobv:517-opus-48465
4846
1864-1431
0948-7549
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Hans-Georg Petersen
Finanzwissenschaftliche Diskussionsbeiträge
61
eng
uncontrolled
fragile state
eng
uncontrolled
state theory
eng
uncontrolled
stable states
eng
uncontrolled
fragility index
eng
uncontrolled
taxation
eng
uncontrolled
shadow economy
eng
uncontrolled
tax administration
eng
uncontrolled
development cooperation
Wirtschaft
International Relations and International Political Economy
Structure, Scope, and Performance of Government
General
Economic Development
Development Planning and Policy
Comparative Studies of Countries
General
open_access
Wirtschaftswissenschaften
Universität Potsdam
https://publishup.uni-potsdam.de/files/4657/fiwidisk61.pdf
4658
2010
deu
doctoralthesis
1
2010-11-03
--
2010-09-06
Wirkung von Teecatechin Epigallocatechingallat auf den Energiestoffwechsel der Maus
Effect of tea catechin epigallocatechin gallate on energy metabolism in mice
Die gesundheitsfördernden Eigenschaften von grünem Tee sind weitgehend akzeptiert. Den Teecatechinen, insbesondere dem Epigallocatechin-3-gallat (EGCG), werden zahlreiche positive Effekte zugesprochen (z. B. antioxidativ, antikanzerogen, antiinflammatorisch, Blutdruck und Cholesterinspiegel senkend). Die Mechanismen, die zu einer Reduktion der in Tierversuchen beschriebenen Körper- und Fettmasse führen, sind nicht ausreichend geklärt. Ziel dieser Arbeit bestand darin, die kurz- und mittelfristigen Wirkungen einer TEAVIGO®-Applikation (mind. 94 % EGCG) am Mausmodell im Hinblick auf den Energie- und Fettstoffwechsel sowie die Expression daran beteiligter Gene in wichtigen Organen und Geweben zu untersuchen. In verschiedenen Tierversuchen wurde männlichen C57BL/6-Mäusen eine Hochfettdiät (HFD) mit und ohne Supplementation (oral, diätetisch) des entkoffeinierten Grüntee-Extraktes TEAVIGO® in unterschiedlichen Dosierungen gefüttert. Es wurden sowohl kurz- als auch mittelfristige Wirkungen des EGCG auf die Energiebilanz (u. a. indirekte Tierkalorimetrie) und Körperzusammensetzung (NMR) sowie die exogene Substratoxidation (Stabilisotopentechnik: Atemtests, Inkorporation natürlicher 13C-angereicherter Triglyceride aus Maiskeimöl in diverse Organe/Gewebe) und Gen-expression (quantitative real-time PCR) untersucht. Die Applikationsform und ihre Dauer riefen unterschiedliche Wirkungen hervor. Mäuse mit diätetischer Supplementation zeigten bereits nach kurzer Zeit eine verminderte Körperfettmasse, die bei weiterer Verabreichung auch zu einer Reduktion der Körpermasse führte. Beide Applikationsformen resultieren, unabhängig von der Dauer der Intervention, in einer erhöhten Energieausscheidung, während die Futter- und Energieaufnahme durch EGCG nicht beeinflusst wurden. Der Energieverlust war von einer erhöhten Fett- und Stickstoffausscheidung begleitet, deren Ursache die in der Literatur beschriebene Interaktion und Hemmung digestiver Enzyme sein könnte. Besonders unter postprandialen Bedingungen wiesen EGCG-Mäuse erniedrigte Triglycerid- und Glycogengehalte in der Leber auf, was auf eine eingeschränkte intestinale Absorption der Nährstoffe hindeutet. Transkriptanalysen ergaben im Darm eine verminderte Expression von Fettsäuretransportern, während die Expression von Glucosetransportern durch EGCG erhöht wurde. Weiterhin reduzierte EGCG, nach Umstellung von Standard- auf eine maiskeimölhaltige Hochfettdiät, die Inkorporation natürlicher 13C-angereicherter Triglyceride in diverse Organe und Gewebe – insbesondere Leber, viszerales und braunes Fettgewebe sowie Skelettmuskel. Die Analyse der 13C-Anreicherung im Atem der Mäuse und die Energieumsatzmessungen ergaben nach kurzer Applikation eine erhöhte Fettoxidation, die im weiteren Verlauf der Intervention auf eine erhöhte Kohlenhydratoxidation umgeschaltet wurde. Weiterhin war die orale Applikation von EGCG bei gleichzeitiger Fütterung einer Hochfettdiät von makroskopischen und mikroskopischen degenerativen Veränderungen der Leber begleitet. Diese Effekte wurden nach diätetischer Supplementation der Hochfettdiät mit EGCG nicht beobachtet. Zusammenfassend zeigen die Ergebnisse, dass die Körpergewichts- und Fettgewebs-abnahme durch diätetisches EGCG sich durch eine herabgesetzte Verdaulichkeit der Nahrung erklären lässt. Dies führte zu verschiedenen kurz- und mittelfristigen Veränderungen in der Fettverteilung und im Fettmetabolismus.
The health-promoting properties of green tea are widely accepted. Tea catechins, particularly epigallocatechin-3-gallate (EGCG), are attributed to many positive effects (anti-oxidative, anti-cancerogen, anti-inflammatory, blood pressure and cholesterol lowering). Mechanisms leading to a reduction of body mass and fat mass in animal experiments are not fully elucidated. The aim of this study was to examine multiple effects of TEAVIGO® application (at least 94% EGCG) in a mouse model in terms of energy and fat metabolism. Expressions of genes involved in these processes were also determined in different organs and tissues. In several animal studies, male C57BL/6 mice were fed a high fat diet supplemented with decaffeinated TEAVIGO® (oral, dietetic) at different dosages. Short- and medium-term effects of EGCG were investigated on energy balance (indirect animal calorimetry), body composition (NMR), exogenous substrate oxidation (stable isotopes: breath tests, incorporation of naturally 13C-enriched triglycerides from corn oil into various organs/tissues), and gene expression (quantitative real-time PCR). Type of application and its duration elicited different effects. Supplemented mice already showed a reduced body fat mass after short- and medium-term treatment. Further administration lead to a reduction of body weight. Regardless of the duration of intervention, both types of application resulted in an increased energy excretion, while food and energy intake was not affected by EGCG. Fecal energy loss was accompanied by an increased fat and nitrogen excretion, which was probably due to an inhibition of digestive enzymes. Fed mice displayed a decreased triglyceride and glycogen content in liver suggesting a reduced absorption of nutrients in the intestine. This was supported by a decreased expression of intestinal fatty acid transporters. However, expression of glucose transporters was increased after short- and medium term application. Furthermore, EGCG attenuated incorporation of naturally 13C-enriched triglycerides into various organs and tissues – particularly liver, visceral and brown adipose tissue, and skeletal muscle. Analysis of 13C-enrichment in breath and measurement of energy expenditure revealed an initial increased fat oxidation, which was switched to an increased carbohydrate oxidation over time. Besides, a combination of oral administration of EGCG and high fat feeding was accompanied by macroscopic and microscopic deleterious changes in liver. These effects were not observed after dietary supplementation of EGCG. Altogether, reduction in body mass and fat mass by EGCG can be explained by a decreased food digestibility leading to various short- and medium-term changes in fat distribution and lipid metabolism.
urn:nbn:de:kobv:517-opus-48159
4815
WX 2500
WX 2300
Maika Friedrich
deu
uncontrolled
Grüner Tee
deu
uncontrolled
Teecatechin
deu
uncontrolled
Epigallocatechingallat
deu
uncontrolled
Energiestoffwechsel
deu
uncontrolled
Fettstoffwechsel
eng
uncontrolled
green tea
eng
uncontrolled
tea catechin
eng
uncontrolled
epigallocatechin gallate
eng
uncontrolled
energy metabolism
eng
uncontrolled
fat metabolism
Biowissenschaften; Biologie
open_access
Institut für Ernährungswissenschaft
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4658/friedrich_diss.pdf
4708
2010
deu
doctoralthesis
1
2010-12-13
--
2010-09-17
Optimierung und Erweiterung der Parallel-Seismik-Methode zur Bestimmung der Länge von Fundamentpfählen
Optimization and extension of the parallel seismic method for the determination of foundation pile length
Das Parallel-Seismik-Verfahren dient vor allem der nachträglichen Längenmessung von Fundamentpfählen oder ähnlichen Elementen zur Gründung von Bauwerken. Eine solche Messung wird beispielsweise notwendig, wenn ein Gebäude verstärkt, erhöht oder anders als bisher genutzt werden soll, aber keine Unterlagen mehr über die Fundamente vorhanden sind. Das Messprinzip des schon seit einigen Jahrzehnten bekannten Verfahrens ist relativ einfach: Auf dem Pfahlkopf wird meist durch Hammerschlag eine Stoßwelle erzeugt, die durch den Pfahl nach unten läuft. Dabei wird Energie in den Boden abgegeben. Die abgestrahlten Wellen werden von Sensoren in einem parallel zum Pfahl hergestellten Bohrloch registriert. Aus den Laufzeiten lassen sich die materialspezifischen Wellengeschwindigkeiten im Pfahl und im Boden sowie die Pfahllänge ermitteln. Bisher wurde meist ein sehr einfaches Verfahren zur Datenauswertung verwendet, das die Länge der Pfähle systematisch überschätzt. In der vorliegenden Dissertation wurden die mathematisch-physikalischen Grundlagen beleuchtet und durch Computersimulation die Wellenausbreitung in Pfahl und Boden genau untersucht. Weitere Simulationen klärten den Einfluss verschiedener Mess- und Strukturparameter, beispielsweise den Einfluss von Bodenschichtung oder Fehlstellen im Pfahl. So konnte geklärt werden, in welchen Fällen mit dem Parallel-Seismik-Verfahren gute Ergebnisse erzielt werden können (z. B. bei Fundamenten in Sand oder Ton) und wo es an seine Grenzen stößt (z. B. bei Gründung im Fels). Auf Basis dieser Ergebnisse entstand ein neuer mathematischer Formalismus zur Auswertung der Laufzeiten. In Verbindung mit einem Verfahren zur Dateninversion, d. h. der automatischen Anpassung der Unbekannten in den Gleichungen an die Messergebnisse, lassen sich sehr viel genauere Werte für die Pfahllänge ermitteln als mit allen bisher publizierten Verfahren. Zudem kann man nun auch mit relativ großen Abständen zwischen Bohrloch und Pfahl (2 - 3 m) arbeiten. Die Methode wurde an simulierten Daten ausführlich getestet. Die Messmethode und das neue Auswerteverfahren wurden in einer Reihe praktischer Anwendungen getestet – und dies fast immer erfolgreich. Nur in einem Fall komplizierter Fundamentgeometrie bei gleichzeitig sehr hoher Anforderung an die Genauigkeit war schon nach Simulationen klar, dass hier ein Einsatz nicht sinnvoll ist. Dafür zeigte es sich, dass auch die Länge von Pfahlwänden und Spundwänden ermittelt werden kann. Die Parallel-Seismik-Methode funktioniert als einziges verfügbares Verfahren zur Fundamentlängenermittlung zugleich in den meisten Bodenarten sowie an metallischen und nichtmetallischen Fundamenten und kommt ohne Kalibrierung aus. Sie ist nun sehr viel breiter einsetzbar und liefert sehr viel genauere Ergebnisse. Die Simulationen zeigten noch Potential für Erweiterungen, zum Beispiel durch den Einsatz spezieller Sensoren, die zusätzliche Wellentypen empfangen und unterscheiden können.
The Parallel Seismic (PS) method is used for determination of the unknown or undocumented depth/length of unknown foundations, mostly piles. Parallel Seismic is an established but rather not commonly used geophysical technique, which has been developed several decades ago. Currently, this method is standardized in France and included in the method catalog of the US FHWA. The principle behind PS is quite simple: an impulse is generated on top of the pile by a hammer stroke, generating elastic waves (mainly compressional) traveling downward through the pile. Due to the high impedance contrast between pile and soil, the main part of the energy remains in the pile, but some is transmitted as guided waves into the surrounding soil. After reaching the pile toe, transmitted/diffracted waves of nearly spherical front are generated. These waves are recorded by sensors (hydrophones or geophones) in a nearby borehole. From the first arrival times registered at the sensors, the apparent wave velocity is calculated, which is different above the pile toe (pile velocity) and below (soil velocity). In the conventional data analysis, the pile length is estimated based on the intersection of the two travel time branches, leading to a systematic overestimation of the length of the pile. This thesis provides a systematic treatise of the mathematical and physical foundations of wave propagation in piles and soil. Extensive numerical simulations and parametric studies have been carried out to investigate the nature of the wave-field and influence of measurement and structural parameters. The results revealed the range of applicability of Parallel Seismic, but also some limitations, e. g. in the case of rock socketed foundations or piles containing flaws. A new mathematical algorithm for data interpretation was developed based on the simulation results, which takes into account the soil layers and the borehole inclination. This novel data interpretation scheme was used in combination with different data inversion methods. A comparison of the results showed that the commonly used Levenberg-Marquardt type least squares approach gives sufficiently accurate estimations in most common scenarios. The VFSA (very fast simulated annealing) method offers some advantages (e. g. avoiding local minima under certain conditions) but is much more time consuming. The new interpretation method was successfully validated using several sets of simulated data. It proved to be not only more accurate than all other available methods, but also to extend the maximum allowable pile-borehole distance to 2 – 3 m. Besides the numerical study, several field investigations have been carried out for the purpose of this study and also in the framework of real world projects. The foundation types included secant pile walls and sheet piles. The method performed successfully in all cases but one: a highly accurate determination of the connection of a T-shaped footing. In this particular case, the inapplicability of the method was concluded after some preliminary simulations, thus avoiding unnecessary costs to the client. Performing simulations prior to the actual testing is recommended in dealing with all non-standard cases. Today, Parallel Seismic is the only method applicable on metallic and non metallic foundations which can be used without calibration. It has the largest range of all borehole methods.
urn:nbn:de:kobv:517-opus-49191
4919
PACS-Klassifikation: 43.40.Ph
TI 03200
TZ 03100
UT 2500
Ernst.Niederleithinger@bam.de | niederle@uni-potsdam.de | Ernst@niederleithinger.de
Ernst Niederleithinger
deu
uncontrolled
Fundament
deu
uncontrolled
Pfahl
deu
uncontrolled
Zerstörungsfreie Prüfung
deu
uncontrolled
Parallel Seismik
deu
uncontrolled
Inversion
eng
uncontrolled
foundation
eng
uncontrolled
pile
eng
uncontrolled
non-destructive testing
eng
uncontrolled
parallel seismic
eng
uncontrolled
inversion
Geowissenschaften
open_access
Institut für Geowissenschaften
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4708/niederleithinger_diss.pdf
4709
2010
eng
doctoralthesis
1
2010-12-13
--
2010-11-03
Second-order nonlinear optical interactions and cascading effects in thinorganic films
Nichtlineare optische Wechselwirkung zweiter Ordnung und Cascading in dünnen organischen Schichten
The presented work describes new concepts of fast switching elements based on principles of photonics. The waveguides working in visible and infra-red ranges are put in a basis of these elements. And as materials for manufacturing of waveguides the transparent polymers, dopped by molecules of the dyes possessing second order nonlinear-optical properties are proposed. The work shows how nonlinear-optical processes in such structures can be implemented by electro-optical and opto-optical control circuit signals. In this paper we consider the complete cycle of fabrication of several types of integral photonic elements. The theoretical analysis of high-intensity beam propagation in media with second-order optical nonlinearity is performed. Quantitative estimations of necessary conditions of occurrence of the nonlinear-optical phenomena of the second order taking into account properties of used materials are made. The paper describes the various stages of manufacture of the basic structure of the integrated photonics: a planar waveguide. Using the finite element method the structure of the electromagnetic field inside the waveguide in different modes was analysed. A separate part of the work deals with the creation of composite organic materials with high optical nonlinearity. Using the methods of quantum chemistry, the dependence of nonlinear properties of dye molecules from its structure were investigated in details. In addition, the paper discusses various methods of inducing of an optical nonlinearity in dye-doping of polymer films. In the work, for the first time is proposed the use of spatial modulation of nonlinear properties of waveguide according Fibonacci law. This allows involving several different nonlinear optical processes simultaneously. The final part of the work describes various designs of integrated optical modulators and switches constructed of organic nonlinear optical waveguides. A practical design of the optical modulator based on Mach-Zehnder interferometer made by a photolithography on polymer film is presented.
Die vorliegende Arbeit beschreibt neue Konzepte für schnelle photonische Schaltelemente. Diese Elemente basieren auf optischer Wellenleitung im sichtbaren und nahen infraroten Spektralbereich. Die Arbeit ist auf organische Wellenleiter aus transparenten, farbstoffdotierten Polymeren fokussiert, welche Chromophore mit besonders großen optischen Nichtlinearitäten zweiter Ordnung enthalten. Insbesondere wird dargestellt, wie nichtlineare optische Prozesse in derartigen Bauelementen genutzt werden können, wenn man elektrische oder optische Steuersignale einsetzt. Es wird der gesamte Her-stellungszyklus verschiedener integrierter photonischer Bauelemente betrachtet. Die Arbeit umfasst weiterhin eine detaillierte theoretische Analyse der Wellenausbreitung in Medien mit großer nichtlinearer optischer Suszeptibilität zweiter Ordnung bei hoher Lichtintensität. Unter Annahme optischer Materialkonstanten, welche den experimentell ermittelten Werten entsprechen, erfolgte eine quantitative Abschätzung für das Auftreten von Szenarien, bei denen messbare Abwei-chungen der Strahlausbreitung vom linearen Regime auftreten, z:B. das Auftreten von zeitlichen, räumlichen und spektralen Satteliten zu den im Material propagierenden Laserpulsen. Es gelang, we-sentliche Aspekte der Strahlpropagationsprozesse durch Anwendung von Jacobi-Integralfunktionen in geschlossener mathematischer Form darzustellen. Darüber hinausgehende theoretische Untersuchungen nutzten die Finite-Elemente-Methode, um die Verteilung des elektromagnetischen Feldes im Inneren optischer Wellenleiter für verschiedene Pro-pagationsmoden zu analysieren. Ein weiterer Teil der Arbeit beschäftigt sich mit organischen Kompositmaterialen, welche große opti-sche Nichtlinearitäten aufweisen. Mittels quantenchemischer Verfahren erfolgte eine detaillierte Un-tersuchung der Zusammenhänge zwischen der molekularen Struktur und den linearen sowie den nichtlinearen optischen Eigenschaften der untersuchten Farbstoffmoleküle und Polymere. In Bezug auf die Probenpräparation sind unterschiedliche Verfahren zur Schichtbildung und zur molekularen Orientierung miteinander verglichen und bewertet worden, da letztere eine Voraussetzung für das Auftreten nichtlinearer optischer Prozesse zweiter Ordnung bildet. Die Untersuchungen erstreckten sich auf Vakuumaufdampfschichten aus niedermolekularen Chromophoren und auf Polymerschich-ten, welche durch Vakuumabscheidung sowie durch Spincoating oder andere Flüssigphasenabschei-dungsverfahren hergestellt worden sind. Auf orientierenden Substraten (z.B. geriebene Schichten aus Polytetrafluoräthylen) konnte eine spontane Orientierung der deponierten Chromophore nachgewie-sen werden. Die Chromophore in Polymerschichten wurden durch Coronapolung orientiert. In der Arbeit ist zum ersten Mal vorgeschlagen worden, eine räumliche Modulation der nichtlinearen optischen Eigenschaften durch gezielte lokale Coronapolung oder andere Orientierungstechniken derart zu generieren, dass die Abfolge gepolter Domänen dem Bildungsgesetz einer modifizierten Fibonacci-Reihe mit gebrochen rationalen Zahlen gehorcht. Der Vorteil von optischen Wellenleitern mit dieser Struktur darin, dass diese mehrere unterschiedli-che nichtlineare optische Prozesse gleichzeitig unterstützen und somit eine Vielzahl neuartiger Phä-nomene auftreten kann, welche man in neuartigen photonischen Bauelementen, z.B. für die optische Informations- und Kommunikationstechnik nutzen kann. Der letzte Teil der Arbeit beschreibt den Aufbau verschiedener integrierter optischer Modulatoren und Schalter, die sich mit Hilfe das neu entwickelten Verfahrens herstellen lassen. Zukünftige Entwicklungen in der Photonik, insbesondere der optischen Informations- und Kommuni-kationstechnik werden im abschließenden Teil der Arbeit diskutiert.
urn:nbn:de:kobv:517-opus-49186
4918
UV 5300
UV 5000
UV 5500
UP 7800
Viachaslau Ksianzou
deu
uncontrolled
NLO
deu
uncontrolled
SHG
deu
uncontrolled
QPM
deu
uncontrolled
Cascading
eng
uncontrolled
NLO
eng
uncontrolled
SHG
eng
uncontrolled
QPM
eng
uncontrolled
Cascading
Physik
open_access
Institut für Physik und Astronomie
Universität Potsdam
Universität Potsdam
https://publishup.uni-potsdam.de/files/4709/ksianzou_diss.pdf
4682
2010
deu
book
AG eLEARNiNG (Hrsg.)
1
2010-11-25
--
--
eTEACHiNG kompass : Anregungen für online-unterstützte Lehre. - [2. Aufl.]
Der "eTEACHiNG-kompass" beinhaltet Informationen zu verschiedenen Funktionen der E-Learning-Plattform "Moodle" und weiteren digitalen Lehr-Lern-Medien. Durch Anregungen sowie konkrete Nutzungs- und Handlungsvorschläge will er deren methodisch reflektierten Einsatz in der Lehre unterstützen. Inhalt Nr. 1 Lernräume einrichten. Kursgestaltung in Moodle Nr. 2 Materialien online bereitstellen. Die Moodle-Funktion "Arbeitsmaterialien" kreativ nutzen Nr. 3 Kommunizieren, organisieren und kooperieren. Foren in Moodle verwenden Nr. 4 Lernende begleiten, Veranstaltungen evaluieren. Die Feedback-Funktion in Moodle Nr. 5 Inhalte online-unterstützt vermitteln. Mit der Moodle-Funktion "Lektion" arbeiten Nr. 6 Unterstützen und überprüfen. Mit der Moodle-Funktion "Test" arbeiten Nr. 7 Online-Glossare. Wissensspeicher im Internet Nr. 8 Kooperatives und kollaboratives Lernen im Netz Arbeiten mit Wikis. Nr. 9 Der Lernbegleiter. Lernen in Worte fassen Nr. 10 Web Based Training. Aufbereiten von Lehrinhalten für die Online-Vermittlung Nr. 11 Podcasting. Einsatzmöglichkeiten in der Hochschullehre Nr. 12 E-Learning und Urheberrecht. Verwendung geschützter Werke in Forschung und Lehre
urn:nbn:de:kobv:517-opus-49177
4917
<hr/>Erste Auflage online abrufbar unter: <br/>URN <a href="http://nbn-resolving.org/urn:nbn:de:kobv:517-opus-41165" target="_blanc">urn:nbn:de:kobv:517-opus-41165</a>
AL 34330
Frederic Matthé
Dorothea Kitschke
Marlen Schumann
Doreen Markert
Beatrice Brunner
deu
uncontrolled
E-Learning
deu
uncontrolled
E-Teaching
deu
uncontrolled
Hochschuldidaktik
deu
uncontrolled
Mediendidaktik
deu
uncontrolled
digitale Medien
Bildung und Erziehung
open_access
Department Erziehungswissenschaft
Institut für Erziehungswissenschaft
Universität Potsdam
https://publishup.uni-potsdam.de/files/4682/eTEACHiNG_kompass_2aufl.pdf
4068
2010
deu
122
book
Universitätsverlag Potsdam
Potsdam
1
2010-05-18
--
--
Verspätete Wahrheitskommissionen in Theorie und Praxis
Delayed truth commissions in theory and practice
Für den Umgang post-autoritärer Gesellschaften mit den Tätern von Menschenrechtsverletzungen der Vorgängerregime gibt es zahlreiche Möglichkeiten. Neben der legalen Strafverfolgung haben sich seit Mitte der 1970er Jahre vor allem Wahrheitskommissionen als Form gegenseitiger Versöhnung zwischen Tätern und Opfern etabliert. Die vorliegende Studie gibt aus der Perspektive der vergleichenden Politikfeldforschung eine Antwort auf die Frage, welche politischen Faktoren der Wahrheitskommissionen in Uruguay, Panama und Ghana zu einer Verzögerung bei den Aufarbeitungsprozessen nach der Transition führen. Dazu werden aus der Theorie von Transitional Justice Hypothesen zur Machtverteilung, dem Ausmaß der Menschenrechtsverletzungen und den zivil-militärischen Reformen für verspätete Wahrheitskommissionen abgeleitet, welche zur Plausibilisierung der Verzögerung beitragen. Im empirisch-analytischen Teil der Arbeit wird in der Untersuchungs- und Kontrollgruppe deutlich, dass im Vergleich zu transitionsnahen Wahrheitskommissionen ein niedrigeres Niveau an Menschenrechtsverletzungen den politischen Druck für die Aufarbeitung hemmt und die Täter als demokratisch gewählte Machthaber nach der Transition kein Interesse an der Wahrheit haben (Ghana und Panama) bzw. mit den neuen Machthabern paktierten (Uruguay). Zudem zeigt die Studie, dass zivil-militärische Reformen keinen Einfluss auf die Aufarbeitung der Wahrheit haben, wie in der Literatur argumentiert wird. Auch wird angezweifelt, dass sich die politische Machtverteilung bei der Einsetzung von Wahrheitskommissionen im Gleichgewicht befindet.
For dealing with former human rights violations post-conflict societies have several choices. Besides criminal prosecutions truth commissions have been set up since the mid 1970 to find a way for reconciliation between perpetrators and victims. This paper focuses on the analysis of truth commissions with a significant time span to the transitional period in a comparative manner and asks for the causal mechanisms linked to it. To explain the time lack hypotheses are tested on the balance of power, civil-military reforms and the degree of human rights violations. The analyses for the truth commissions in Uruguay, Ghana and Panama indicate that a lower degree of human rights violations and the elections of political leaders and parties closely linked to the authoritarian era foreclose the establishment process. These results are controlled by the analysis of truth commissions in Argentina, South Africa and Haiti that were directly set up after the transition. Further it is argued that civil-military reforms have no influence on the establishment of truth commissions and that the balance of power is not levelled as is argued in the literature.
Potsdamer Studien zu Staat, Recht und Politik
urn:nbn:de:kobv:517-opus-42033
4203
978-3-86956-034-2
1867-2663
<hr/>In Printform erschienen im <a href="http://info.ub.uni-potsdam.de/verlag.htm">Universitätsverlag Potsdam</a>:<br/><br/>Ranft, Florian: Verspätete Wahrheitskommissionen in Theorie und Praxis / Florian Ranft. - Potsdam : Universitätsverlag Potsdam, 2010. - 122 S.<br/>(Potsdamer Studien zu Staat, Recht und Politik ; 4)<br/>Zugl.: Potsdam, Univ., Diplomarbeit, 2009<br/>ISSN 1869-2443<br/>ISBN 978-3-86956-034-2 <br/>--> <a href="http://info.ub.uni-potsdam.de/cgi-bin/publika/view.pl?id=558">bestellen</a><hr/>
PC 4720
Keine öffentliche Lizenz: Unter Urheberrechtsschutz
Florian Ranft
Potsdamer Studien zu Staat, Recht und Politik
4
deu
uncontrolled
Menschenrechte
deu
uncontrolled
Menschenrechtsverletzungen
deu
uncontrolled
Transitional Justice
deu
uncontrolled
Transformationsprozesse
deu
uncontrolled
Wahrheitskommissionen
eng
uncontrolled
Human Rights
eng
uncontrolled
Human Rights Violations
eng
uncontrolled
Transtional Justice
eng
uncontrolled
Transitions
eng
uncontrolled
Truth Commissions
Recht
open_access
Potsdamer Studien zu Staat, Recht und Politik, ISSN 1867-2663
Sozialwissenschaften
Universitätsverlag Potsdam
Universität Potsdam
Universitätsverlag Potsdam
https://publishup.uni-potsdam.de/files/4068/pssrp04.pdf