Refine
Has Fulltext
- yes (204) (remove)
Year of publication
- 2005 (204) (remove)
Document Type
- Doctoral Thesis (93)
- Monograph/Edited Volume (37)
- Postprint (22)
- Part of Periodical (12)
- Working Paper (11)
- Review (9)
- Article (6)
- Habilitation Thesis (5)
- Other (4)
- Preprint (4)
Language
- German (124)
- English (79)
- Multiple languages (1)
Is part of the Bibliography
- yes (204) (remove)
Keywords
- Modellierung (6)
- Selbstorganisation (5)
- Verwaltung (5)
- Arabidopsis (4)
- Polyelektrolyt (4)
- Anthropogene Klimaänderung (3)
- Blockcopolymere (3)
- Enterprise-Resource-Planning (3)
- Klimawandel (3)
- Ländlicher Raum (3)
Institute
- Institut für Physik und Astronomie (25)
- Wirtschaftswissenschaften (24)
- Institut für Biochemie und Biologie (23)
- MenschenRechtsZentrum (19)
- Institut für Chemie (17)
- Extern (12)
- Sozialwissenschaften (9)
- Department Psychologie (7)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (6)
- Institut für Ernährungswissenschaft (6)
In den letzten 20 Jahren hat sich der Maiszünsler (Ostrinia nubilalis HÜBNER), aus der Schmetterlingsfamilie der Pyralidae oder Zünsler, zum bedeutendsten tierischen Schädling des Maises (Zea mays) entwickelt. Eine Möglichkeit den Befall des Maiszünslers abzuwenden, bietet der Anbau von Bacillus thuringiensis-Mais (Bt-Mais). Mit Hilfe der Gentechnik wurden Gene des Bakteriums Bacillus thuringiensis übertragen, die einen für Fraßinsekten giftigen Wirkstoff bilden, wodurch die Pflanzen während der kompletten Vegetation vor den Larven des Maiszünslers geschützt sind. Ziel des vorliegenden Projektes war es, in einer 3-jährigen Studie die Auswirkungen des großflächigen Anbaus von Bt-Mais auf die ökologische Situation und den Handlungsrahmen des integrierten Pflanzenschutzes komplex zu untersuchen. Dazu wurden in Betrieben im Oderbruch, das als permanentes Befallsgebiet des Maiszünslers gilt, in den Jahren 2002 bis 2004 jährlich zwei Felder mit jeweils einer Bt-Sorte und einer konventionellen Sorte angelegt. Zusätzlich wurden biologische und chemische Maiszünsler-Bekämpfungsvarianten geprüft. Durch verschiedene Methoden wie Bonituren, Ganzpflanzenernten, Bodenfallenfänge und Beobachtungen des Wahlverhaltens von (Flug-)insekten konnten Aussagen zum Vorkommen von Insekten und Spinnentieren getroffen werden, wobei hierfür Daten aus Untersuchungen der Jahre 2000 und 2001 im Oderbruch ergänzend herangezogen werden konnten. Durch Ertragsmessungen, Energie- und Qualitätsermittlungen, sowie Fusarium- und Mykotoxinanalysen konnte der Anbau von Bt-Mais als neue Alternative zur Bekämpfung des Maiszünslers bewertet werden. Bezüglich des Auftretens von Insekten und Spinnentieren wurden im Mittel der fünfjährigen Datenerhebung beim Vergleich der Bt-Sorte zur konventionellen Sorte, mit Ausnahme der fast 100 %igen Bekämpfung des Maiszünslers, keine signifikanten Unterschiede festgestellt. Hierfür wurde ein besonderes Augenmerk auf Thripse, Wanzen, Blattläuse und deren Fraßfeinde, sowie mittels Bodenfallenfängen auf Laufkäfer und Spinnen gerichtet. Die erwarteten ökonomischen Vorteile wie etwa Ertragsplus oder bessere Nährstoff- und Energiegehalte durch geringeren Schaden beim Anbau von Bt-Mais als Silomais blieben in den Untersuchungsjahren aus. Allerdings zeigten Fusarium- und Mykotoxinanalysen eine geringere Belastung des Bt-Maises, was möglicherweise auf den geringeren Schaden zurückzuführen ist, da beschädigte Pflanzen für Fusarium und Mykotoxine anfälliger sind. Desweiteren konnten erste methodische Ansätze für ein auf EU-Ebene gefordertes, den Anbau von Bt-Mais begleitendes Monitoring, erarbeitet werden. So konnten Vorschläge für geeignete Methoden, deren Umfang sowie des Zeitpunktes der Durchführungen gemacht werden.
Gegen die gängige Vorstellung von der ‚kreativen Phantasie‘ als dem schöpferischen Vermögen des Dichters argumentiert der Aufsatz, dass erst mit der Frühromantik die Phantasie zum kreativen Vermögen erklärt wird, davor jedoch die Vernunft als kreatives Vermögen galt. In der Fakultätenpsychologie des Mittelalters und der Frühen Neuzeit wurde die imaginatio als ein rein passives Vorstellungsvermögen der Vernunft nicht entgegengestellt, sondern ihr übergeordnet, indem sich die Vernunft der Phantasie als bildgebendem Verfahren bediente. Während das Ergebnis der Phantasie seit der Frühromantik als ästhetisches ‚Werk‘ im emphatischen Sinne gilt, war das Ergebnis der dichtenden Vernunft ein Argument im logischen Sinne, das Prozess der inventio gefunden worden war. Erst Anfang des 18. Jahrhunderts entwickelt sich dann der Begriff der ‚kreativen Phantasie‘ aus dem rhetorischen Konzept der Anschaulichkeit (evidentia).
Die Ausprägung der Lateralität der Körperextremitäten steht in engem Zusammenhang mit der Hemisphärenspezialisierung des menschlichen Gehirns. Die Lateralität und die Dominanz einer Hemisphäre mit ihren Auswirkungen auf die Leistungsfähigkeit ist ein bislang unvollständig untersuchtes Phänomen im Sport. In der vorliegenden Arbeit soll daher die Bedeutung der Seitigkeitsausprägung im Rahmen sportlicher Bewegungsabläufe geprüft werden. Sowohl bei Messungen im "Freiwasser", als auch in der "Kanu–Gegenstromanlage" im Bereich des Kanurennsportes werden seit einigen Jahren sich in Qualität und Quantität unterscheidende Kraft–Zeit–Funktionen der linken und rechten Körperseite beobachtet, die zwar dokumentiert, aber bislang ungeprüft in ihrer Bedeutung als leistungsbeeinflussend angenommen werden. Im Zeitraum von Oktober 1997 bis Oktober 2000 wurden 275 Kajakfahrer und Canadierfahrer im Alter zwischen 11 und 20 Jahren zweimal jährlich (März und Oktober) mit einem umfangreichen trainings- und bewegungswissenschaftlichen sowie biomechanischen Instrumentarium untersucht. Die Athleten gehören zum Nachwuchs- und Anschlusskader des LKV Brandenburg. Schwerpunkt der Fragestellung ist der Zusammenhang von auftretenden Kraftdifferenzen zwischen der linken und rechten oberen Extremität und sportartspezifischen Leistungen unter Laborbedingungen und Feldbedingungen. Es wurden objektive Daten zu ausgewählten Kraftfähigkeiten der oberen Arm–Beuge–Schlinge an einem Kraftdiagnosegerät, Kraftverläufe am Messpaddel während Leistungsüberprüfungen im "Kanu–Gegenstromkanal" und im "Freiwasser" über 250 m und 2.000 m im Jahresverlauf erhoben. Die Ergebnisse zeigen einen Trend der im Altersverlauf ansteigenden Differenz der Mittelwertunterschiede in der Maximalkraft zwischen dem linken und rechten Arm. Bei bestehenden Maximalkraftdifferenzen zwischen linker und rechter oberer Extremität in der Längsschnittgruppe liegen die Leistungen mit dem rechten Arm deutlich über den Kraftleistungen des linken Arms und sind nicht zufällig. Mit steigendem Maximalkraftniveau nimmt überraschenderweise auch die Differenz der Maximalkraft zwischen der linken und rechten oberen Extremität trotz bilateralen Trainings zu. Die Ergebnisse der EMG–Analyse bestätigen, dass die Maximalkraft leistungsbestimmend für die Bootsleistungen ist. In den EMG–Signalverläufen werden die unterschiedlichen Belastungen der Labor– und Feldbedingungen mit individuellen Charakteristika nachgezeichnet. Deutlich unterscheiden sich die Kraftverläufe im "Freiwasser" gegenüber den Kraftverläufen in der "Kanu–Gegenstromanlage". Bei der vorliegenden Untersuchung handelt es sich um eine erste empirische Arbeit zur Auswirkung von Seitigkeitsunterschieden in zyklischen Sportarten auf der Expertiseebene. In der Untersuchung wurden methodische Verfahren eingesetzt, die dem derzeitigen Forschungsstand in der Trainings- und Bewegungswissenschaft entsprechen. Neben varianzanalytischen Verfahren der Auswertung zur Darstellung von Mittelwertunterschieden und Zusammenhänge prüfenden Verfahren wurden ebenso explorative EMG–Analysen angewandt. Die Ergebnisse aus dem Längsschnitt belegen bei ausschließlich rechtshändigen Probanden, dass die Schlussfolgerung von bevorzugter Extremität auf ein höheres Kraftniveau nicht eineindeutig ist. Zwischen den oberen Extremitäten bei Kanurennsportlern bestehen nicht nur zufällige Kraftunterschiede, trotz des bilateralen Trainings. Kontrovers diskutiert wird die Beziehung von bevorzugter Extremität und der Höhe der Kraftentfaltung. Im Alltagsverständnis wird häufig angenommen, dass ein höheres Maximalkraftniveau in der Extremität vorliegen muss, die auch die bevorzugte (z.B. Schreibhand) ist (WIRTH & LIPHARDT, 1999). Diese Eindeutigkeit konnte in der durchgeführten Untersuchung nicht bestätigt werden. Wie die Ergebnisse dieser Untersuchung deutlich zeigen, nimmt mit der höheren Maximalkraft aber auch die Differenz der Kraftleistungen zwischen dem linken und rechten Arm bei bilateral ausgerichtetem Training zu. FISCHER (1988; 1992) wies nach, dass sich ein Training auf der subdominanten Seite in einem kontralateralen Leistungstransfer auf der dominanten Seite positiv auswirkte. Erkenntnisse von KUHN (1986) und HOLLMANN & HETTINGER (2000) unterstützen nachhaltig die Ergebnisse. Die EMG–Ergebnisse zeigen die individuelle Reaktion auf die Belastungsanforderungen. Die elektromyographischen Daten beziehen sich auf den neuromuskulären Komplex. Somit sprechen hohe Amplitudenwerte einerseits für eine hohe Innervation der beteiligten motorischen Einheiten an der Bewegungsausführung und andererseits für einsetzende Ermüdungserscheinungen im Muskel. In Bezug auf die Ermüdung der oberen Extremitätenmuskeln der rechten und linken Seite beschreiben WILLIAMS, SHARMA & BILODEAU (2002) keine signifikanten Unterschiede zwischen der dominanten und nichtdominanten Handseite.
rezensiertes Werk: Karl, Wolfram (Hrsg.): Internationale Gerichtshöfe und nationale Rechtsordnung, Internationales Symposium am Österreichischen Institut für Menschenrechte am 28. und 29. November 2003 in Salzburg zu Ehren von em.o.Univ.-Prof. DDr. Dr. h.c. Franz Matscher(Schriften des Österreichischen Instituts für Menschenrechte ; Bd. 9). - Kehl a. Rh. [u.a.] : N.P. Engel Verl., 2005. - 254 S. ISBN 3-88357-135-0
Die Beschäftigung mit dem Thema Change Management erfordert die Auseinandersetzung mit einem heterogenen Feld von Ansätzen und fachlichen Perspektiven. Es besteht ein Mangel an systematischen empirischen Untersuchungen zu diesem Thema. Insbesondere fehlen Arbeiten, die mehr als eine "Schule" des Change Managements berücksichtigen. Unterschiede in den situativen Anforderungen werden zudem theoretisch und empirisch oft unzureichend berücksichtigt. Die Vermutung liegt nahe, dass das Scheitern von Veränderungsprozessen häufig durch die stereotype Anwendung generalisierender Empfehlungen gängiger Ansätze verursacht wird. Um diesen Defiziten zu begegnen, sollten in dieser Arbeit Kontingenzen von situativen Anforderungen und Change Management empirisch überprüft werden. Der Untersuchung liegt eine Konzeption zugrunde, die hinsichtlich des Projekterfolgs von der idealen Passung (Kontingenz) zwischen situativer Anforderung und Change Management ausgeht und damit einhergehende prozessbezogene Einflussfaktoren berücksichtigt. Erfolg wird im Sinne der Nachhaltigkeit als Wirkungen wirtschaftlicher, organisationsbezogener und qualifikatorischer Art definiert. In drei Teilstudien wurden Beratende und betriebliche Beteiligte jeweils projektbezogen schriftlich und mündlich zu betrieblicher Ausgangslage, Veränderungsprinzipien, Wirkungen und prozessbezogenen Einflussfaktoren befragt. Die erste Teilstudie umfasst vier Fallstudien. Hier wurden insgesamt 18 Projektbeteiligte, jeweils Beratende, betriebliche Projektleitende und –mitarbeitende, befragt. Die zweite Teilstudie umfasst die schriftliche und mündliche Befragung von 31 Beratenden verschiedener Schulen des Change Managements. In der dritten Teilstudie wurden 47 betriebliche Veränderungsverantwortliche schriftlich befragt. Die Projekte der zweiten und dritten Teilstudie liessen sich in jeweils zwei statistisch abgesicherte Erfolgsgruppen einteilen, wobei sich die Erfolgsgruppen nicht systematisch auf Merkmalen der betrieblichen Ausgangslage unterscheiden. Folgendes sind die wichtigsten Ergebnisse: Bei traditionell-bürokratischen Organisationsstrukturen geht ein langfristig-kontinuierliches, graduell-anpassendes, pragmatisch-lösungsorientiertes Vorgehen, in flexiblen Strukturen dagegen ein kurzfristiges, tiefgreifendes und integrativ-konzeptuelles Vorgehen mit Projekterfolg einher.In traditionell-hierarchischen Führungsstrukturen erweist sich ein wenig humanzentriertes und wenig selbstbeurteilendes Vorgehen mit standardisierter Vorgehensmethode, in flexiblen Führungsstrukturen ein stark humanzentriertes und ausgeprägt selbstbeurteilendes Vorgehen mit angepasster Vorgehensmethode als erfolgsversprechend.Bei grossem betrieblichem Veränderungswissen erweist sich ein selbstbeurteilendes Vorgehen, bei geringem Veränderungswissen ein wenig selbstbeurteilendes Vorgehen als erfolgsversprechend.Angesichts ökonomischer Anforderungen geht ein langfristig-kontinuierliches, schnelles und rollend geplantes Vorgehen mit einem tiefgreifenden und integrativ-konzeptuellen Ansatz, unter wenig Einbezug von Fremdbeurteilungen mit positiven Wirkungen einher.Bei technologischen Anforderungen ist ein langfristig-kontinuierliches, langsames und tiefgreifendes Vorgehen mit wenig Fremdbeurteilung erfolgsversprechend.Für soziokulturelle Anforderungen erweist sich ein langsames, selbstbeurteilendes, graduell anpassendes und pragmatisch-fokussiertes Vorgehen als erfolgreich. Angesichts politisch-rechtlicher Anforderungen geht ein linear geplantes, zielfokussiertes, fachberaterisches und wenig prozessorientiertes Vorgehen mit Erfolg einher.Bei Gesamtreorganisationen als innerorganisationale Anforderungen erweist sich ein linear geplantes, fach- und prozessberaterisches sowie tiefgreifendes Vorgehen als erfolgsversprechend.Bei innerorganisationalen Anforderungen durch Führungswechsel geht ein kurzfristig-temporäres, integrativ-konzeptuelles Vorgehen mit angepasster Vorgehensmethode mit Erfolg einher. Hinsichtlich prozessbezogener Einflussfaktoren erweisen sich situationsspezifisches Beratendenhandeln, unterstützendes Führungsverhalten, grosse Akzeptanz der/des Beratenden, umfassender Einbezug der Mitarbeitenden, aktive Beteiligung und Engagement der Mitarbeitenden, Verankerung des Projekts in der Organisation und hoher wahrgenommener Nutzen der Veränderung als wichtigste unterstützende Faktoren. Widerstände aus der Belegschaft, problematisches Führungsverhalten im Veränderungsprozess, fehlende/mangelhafte neben Tagesgeschäft bereitgestellte Ressourcen, behindernde organisationale (nicht projektbezogene) Entwicklungen, Angst/Verunsicherung der Belegschaft sind die wichtigsten hemmenden Faktoren.
Wilhelm von Humboldts 'Ideen zu einem Versuch die Grenzen der Wirksamkeit des Staats zu bestimmen' sind hierzulande erst in jüngerer Zeit verstärkt rezipiert worden, obwohl sie seit jeher zu den klassischen Schriften des politischen Liberalismus zählen. Humboldts Ideen haben insbesondere John Stuart Mill bei seinem Essay über die Freiheit maßgeblich beeinflusst. Die vorliegende Schrift unternimmt daher nicht nur den Versuch einer rechtsphilosophischen Einordnung, sondern stellt auch Bezüge zur angloamerikanischen Rechtsphilosophie dar.
Vitamin E : elucidation of the mechanism of side chain degradation and gene regulatory functions
(2005)
For more than 80 years vitamin E has been in the focus of scientific research. Most of the progress concerning non-antioxidant functions, nevertheless, has only arisen from publications during the last decade. Most recently, the metabolic pathway of vitamin E has been almost completely elucidated. Vitamin E is metabolized by truncation of its side chain. The initial step of an omega-hydroxylation is carried out by cytochromes P450 (CYPs). This was evidenced by the inhibition of the metabolism of alpha-tocopherol by ketoconozole, an inhibitor of CYP3A expression, whereas rifampicin, an inducer of CYP3A expression increased the metabolism of alpha-tocopherol. Although the degradation pathway is identical for all tocopherols and tocotrienols, there is a marked difference in the amount of the release of metabolites from the individual vitamin E forms in cell culture as well as in experimental animals and in humans. Recent findings not only proposed an CYP3A4-mediated degradation of vitamin E but also suggested an induction of the metabolizing enzymes by vitamin E itself. In order to investigate how vitamin E is able to influence the expression of metabolizing enzymes like CYP3A4, a pregnane X receptor (PXR)-based reporter gene assay was chosen. PXR is a nuclear receptor which regulates the transcription of genes, e.g., CYP3A4, by binding to specific DNA response elements. And indeed, as shown here, vitamin E is able to influence the expression of CYP3A via PXR in an in vitro reporter gene assay. Tocotrienols showed the highest activity followed by delta- and alpha-tocopherol. An up-regulation of Cyp3a11 mRNA, the murine homolog of the human CYP3A4, could also be confirmed in an animal experiment. The PXR-mediated change in gene expression displayed the first evidence of a direct transcriptional activity of vitamin E. PXR regulates the expression of genes involved in xenobiotic detoxification, including oxidation, conjugation, and transport. CYP3A, e.g., is involved in the oxidative metabolism of numerous currently used drugs. This opens a discussion of possible side effects of vitamin E, but the extent to which supranutritional doses of vitamin E modulate these pathways in humans has yet to be determined. Additionally, as there is arising evidence that vitamin E's essentiality is more likely to be based on gene regulation than on antioxidant functions, it appeared necessary to further investigate the ability of vitamin E to influence gene expression. Mice were divided in three groups with diets (i) deficient in alpha-tocopherol, (ii) adequate in alpha-tocopherol supply and (iii) with a supranutritional dosage of alpha-tocopherol. After three months, half of each group was supplemented via a gastric tube with a supranutritional dosage of gamma-tocotrienol per day for 7 days. Livers were analyzed for vitamin E content and liver RNA was prepared for hybridization using cDNA array and oligonucleotide array technology. A significant change in gene expression was observed by alpha-tocopherol but not by gamma-tocotrienol and only using the oligonucleotide array but not using the cDNA array. The latter effect is most probably due to the limited number of genes represented on a cDNA array, the lacking gamma-tocotrienol effect is obviously caused by a rapid degradation, which might prevent bioefficacy of gamma-tocotrienol. Alpha-tocopherol changed the expression of various genes. The most striking observation was an up-regulation of genes, which code for proteins involved in synaptic transmitter release and calcium signal transduction. Synapsin, synaptotagmin, synaptophysin, synaptobrevin, RAB3A, complexin 1, Snap25, ionotropic glutamate receptors (alpha 2 and zeta 1) were shown to be up-regulated in the supranutritional group compared to the deficient group. The up-regulation of synaptic genes shown in this work are not only supported by the strong concentration of genes which all are involved in the process of vesicular transport of neurotransmitters, but were also confirmed by a recent publication. However, a confirmation by real time PCR in neuronal tissue like brain is now required to explain the effect of vitamin E on neurological functionality. The change in expression of genes coding for synaptic proteins by vitamin E is of principal interest thus far, since the only human disease directly originating from an inadequate vitamin E status is ataxia with isolated vitamin E deficiency. Therefore, with the results of this work, an explanation for the observed neurological symptoms associated with vitamin E deficiency can be presented for the first time.
Hauptanliegen der Dissertation ist es, einen Entwurf einer praktischen Ästhetik zu lancieren, der an der Schnittstelle zwischen philosophischer Ästhetik und Kunst – genauer Performancekunst - im Zeichen der Bezugsgrösse der Verletzbarkeit steht. In jüngeren Ästhetikansätzen hat sich eine Auffassung herauskristallisiert, die nicht über, sondern mit Kunst reflektiert. Die Pointe im ‚Mit’ liegt darin, dass diese Ästhetiken die Kunst nicht erklären, sie bestimmen und damit ihre Bedeutung festlegen, sondern dass diese entlang der Kunst die Brüche, Widerstände und Zäsuren zwischen Wahrnehmen und Denken markieren und diese als produktiv bewerten. Diese Lesart etabliert ein Denken, das nicht aus der Distanz auf etwas schaut (theoria), sondern ästhetisch-reflektierend (zurückwendend, auch selbstkritisch) mit der Kunst denkt. Die Disziplin der Ästhetik - als aisthesis: Lehre der sinnlichen Wahrnehmung - nimmt innerhalb der Philosophie eine besondere Stellung ein, weil sie auf ebendiese Differenz verweist und deshalb sinnliche und nicht nur logisch-argumentatorische Denkfiguren stärkt. Als eine Möglichkeit, die Kluft, das Nicht-Einholbare, die brüchige Unzulänglichkeit des begrifflich Denkenden gegenüber ästhetischer Erfahrung zu stärken, schlage ich die Bezugsgrösse der Verletzbarkeit vor. Eine solche Ästhetik besteht aus dem Kreieren verletzbarer Orte, wobei diese auf zweierlei Weisen umkreist werden: Zum einen aus der Kunstpraxis heraus anhand der ästhetischen Figur des verletzbaren Körpes, wie er sich in der zeitgenössischen Performance zeigt. Zum anderen als ein Kreieren von Begriffen im Bewusstsein ihrer Verletzbarkeit. Ausgangspunkte sind die Denkentwürfe von Gilles Deleuze und Hans Blumenberg: Die Ästhetik von Gilles Deleuze entwirft eine konkrete Überschneidungsmöglichkeit von Kunst und Philosophie, aus der sich meine These des Mit-Kunst-Denkens entwickeln lässt. Sie kann aus der Grundvoraussetzung des Deleuzeschen Denkens heraus begründet werden, die besagt, dass nicht nur die Kunst, sondern auch die Philosophie eine schöpferische Tätigkeit ist. Beide Disziplinen beruhen auf dem Prinzip der creatio continua, durch welche die Kunst Empfindungen und die Philosophie Begriffe schöpft, wobei eben genau dieser schöpferische Prozess Kunst und Philosophie in ein produktives Verhältnis zueinander treten lässt. Wie Deleuze seine Begriffsarbeit entlang künstlerischer Praxis entwickelt, wird anhand der Analyse des bis heute wenig rezipierten Textes Ein Manifest weniger in Bezug auf das Theater von Carmelo Bene analysiert. Eine ganz anderen Zugang zum Entwurf einer praktischen Ästhetik liefert Hans Blumenberg, der eine Theorie der Unbegrifflichkeit in Aussicht stellt. Im Anschluss an seine Forderung, die Metapher wieder vermehrt in die philosophische Denkpraxis zu integrieren, radikalisiert er seine Forderung, auch das Nichtanschauliche zu berücksichtigen, indem er das gänzlich Unbegriffliche an die Seite des Begrifflichen stellt. Definitorische Schwäche zeigt sich als wahrhaftige Stärke, die in der Unbegrifflichkeit ihren Zenit erreicht. Der Schiffbruch wird von mir als zentrale Metapher – gewissermassen als Metapher der Metapher – verstanden, die das Auf-Grund-Laufen des Allwissenden veranschaulicht. Im Schiffbruch wird die produktive Kollision von Theorie und Praxis deutlich. Deleuze und Blumenberg zeigen über ‚creatio continua’ und ‚Unbegrifflichkeit’ die Grenzen des Begreifens, indem sie betonen, dass sich Ästhetik nicht nur auf künstlerische Erfahrungen bezieht, sondern selber in das Gegenwärtigmachen von Erfahrungen involviert ist. Daraus folgt, dass ästhetische Reflexion nicht nur begrifflich agieren muss. Die praktische Ästhetik animiert dazu, andere darstellerische Formen (Bilder, Töne, Körper) als differente und ebenbürtige reflexive Modi anzuerkennen und sie als verletzbarmachende Formate der Sprache an die Seite zu stellen. Diese Lesart betont den gestalterischen Aspekt der Ästhetik selber. Zur Verdeutlichung dieser Kluft zwischen (Körper-)Bild und Begriff ist der von mir mitgestaltete Film Augen blickeN der Dissertation als Kapitel beigefügt. Dieser Film zeigt Performer und Performerinnen, die sich bewusst entschieden haben, ihren ‚abweichenden’ Körper auf der Bühne zu präsentieren. Das Wort Verletzbarkeit verweist auf die paradoxe Situation, etwas Brüchiges tragfähig zu machen und dadurch auch auf eine besondere Beziehungsform und auf ein existenzielles Aufeinander-Verwiesensein der Menschen. Verletzbarkeit geht alle an, und stiftet deshalb eine Gemeinsamkeit besonderer Art. In diesem Sinne sind verletzbare Orte nicht nur ästhetische, sondern auch ethische Orte, womit die politische Dimension des Vorhabens betont wird.
Vergütung mit Zukunft
(2005)
Im derzeit angespannten gesamtwirtschaftlichen Umfeld haben Unternehmen wenig Spielräume, über eine absolute Erhöhung der Vergütung Mitarbeiter zu werben, zu binden und zu motivieren. Gerade deshalb erhält die flexible und individuelle Gestaltung des Vergütungssystems für Fach- und Führungskräfte eine herausgehobene Bedeutung.
Im Rahmen dieser Arbeit wurde ein besseres Verständnis der Kopplung der Troposphäre und der Stratosphäre in den mittleren und polaren Breiten der Nordhemisphäre (NH) auf Monatszeitskalen erzielt, die auf die Ausbreitung von quasi-stationären Wellen zurückzuführen ist. Der Schwerpunkt lag dabei auf den dynamisch aktiven Wintermonaten, welche die grösste Variabilität aufweisen. Die troposphärische Variabilität wird zum Grossteil durch bevorzugte Zirkulationsstrukturen, den Telekonnexionsmustern, bestimmt. Mittels einer rotierten EOF-Analyse der geopotenziellen Höhe in 500 hPa wurden die wichtigsten regionalen troposphärischen Telekonnexionsmuster der Nordhemisphäre berechnet. Diese lassen sich drei grossen geografischen Regionen zuordnen; dem nordatlantisch-europäischen Raum, Eurasien und dem pazifisch-nordamerikanischen Raum. Da es sich um die stärksten troposphärischen Variabilitätsmuster handelt, wurden sie als grundlegende troposphärische Grössen herangezogen, um dynamische Zusammenhänge zwischen der troposphärischen und der stratosphärischen Zirkulation zu untersuchen. Dabei wurde anhand von instantanen und zeitverzögerten Korrelationsanalysen der troposphärischen Muster mit stratosphärischen Variablen erstmalig gezeigt, dass unterschiedliche regionale troposphärische Telekonnexionsmuster unterschiedliche Auswirkungen auf die stratosphärische Zirkulation haben. Es ergaben sich für die pazifisch-nordamerikanischen Muster signifikante instantane Korrelationen mit quasi-barotropen Musterstrukturen und für die nordatlantisch-europäischen Muster zonalsymmetrische Ringstrukturen ab 1978 mit signifikanten Korrelationswerten über tropischen und subtropischen Breiten und inversen Korrelationswerten über polaren Gebieten. Bei einer Untersuchung des Einflusses der stratosphärischen Variabilität wurde gezeigt, dass sich die stärkste Kopplung von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation bei einem in Richtung Europa verschobenen Polarwirbel ergibt, wodurch die signifikanten Korrelationen ab 1978 erklärt werden können. Eine zonal gemittelte und vor allem lokale Untersuchung der Wellenausbreitungsbedingungen während dieser stratosphärischen Situation zeigt, dass es zu schwächeren Windgeschwindigkeiten in der Stratosphäre im Bereich von Nordamerika und des westlichen Nordatlantiks kommt und sich dadurch die Wellenausbreitungsbedingungen in diesem geografischen Bereich für planetare Wellen verbessern. Durch die stärkere Wellenausbreitung kommt es zu einer stärkeren Wechselwirkung mit dem Polarjet, wobei dieser abgebremst wird. Diese Abbremsung führt zu einer Verstärkung der meridionalen Residualzirkulation. D. h., wenn es zu einer verstärkten Wellenanregung im Nordatlantik und über Europa kommt, ist die Reaktion der Residualzirkulation bei einem nach Europa verschobenem Polarwirbel besonders stark. Die quasi-barotropen Korrelationsstrukturen, die sich bei den pazifisch-nordamerikanischen Mustern zeigen, weisen aufgrund von abnehmenden Störungsamplituden mit zunehmender Höhe, keiner Westwärtsneigung und einem negativen Brechungsindex im Pazifik auf verschwindende Wellen hin, die als Lösung der Wellengleichung bei negativem Brechungsindex auftreten. Dies wird durch den Polarjet, der im Bereich des Pazifiks stets sehr weit in Richtung Norden verlagert ist, verursacht. Abschliessend wurde in dieser Arbeit untersucht, ob die gefundenen Zusammenhänge von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation auch von einem Atmosphärenmodell wiedergegeben werden können. Dazu wurde ein transienter 40-Jahre-Klimalauf des ECHAM4.L39(DLR)/CHEM Modells mit möglichst realistischen Antrieben erstmalig auf die Kopplung der Troposphäre und der Stratosphäre analysiert. Dabei konnten sowohl die troposphärischen, als auch die stratosphärischen Variabilitätsmuster vom Modell simuliert werden. Allerdings zeigen sich in den stratosphärischen Mustern Phasenverschiebungen in den Wellenzahl-1-Strukturen und ihre Zeitreihen weisen keinen signifikanten Trend ab 1978 auf. Die Kopplung der nordatlantisch-europäischen Telekonnexionsmuster mit der stratosphärischen Zirkulation zeigt eine wesentlich schwächere Reaktion der meridionalen Residualzirkulation. Somit stellte sich heraus, dass insbesondere die stratosphärische Zirkulation im Modell starke Diskrepanzen zu den Beobachtungen zeigt, die wiederum Einfluss auf die Wellenausbreitungsbedingungen haben. Es wird damit deutlich, dass für eine richtige Wiedergabe der Wellenausbreitung und somit der Kopplung der Troposphäre und Stratosphäre die stratosphärische Zirkulation eine wichtige Rolle spielt.
Das Ziel dieser Arbeit ist die Untersuchung der Wasserhaushaltsprozesse und Stofftransportvorgänge innerhalb der grundwassergeprägten Talauenlandschaften von Tieflandeinzugsgebieten am Beispiel der im Nordostdeutschen Tiefland gelegenen Havel. Die Arbeiten in verschieden skaligen Teileinzugsgebieten der Havel beschäftigen sich dabei zum einen mit der experimentellen Untersuchung und vorrangig qualitativen Beschreibung der Wasserhaushaltsdynamik, zum anderen mit der Entwicklung eines zur quantitativen Analyse von Wasserhaushalts- und Stofftransportprozessen geeigneten Modells und der anschließenden Modellsimulation von Wasserhaushalt und Stickstoffmetabolik im Grundwasser sowie der Simulation von Landnutzungs- und Gewässerstrukturszenarien. Für die experimentelle Untersuchung der Abflussbildung und der Wasserhaushaltsprozesse in den Talauenlandschaften des Haveleinzugsgebiets wurde Einzugsgebiet der ”Unteren Havel Niederung“ ein umfangreiches Messnetz installiert. Dabei wurden an mehreren Messstationen und Pegeln meteorologische Parameter, Bodenfeuchte sowie Grundwasserstände und Abflüsse beobachtet. Die Analyse der Messergebnisse führte zu einem verbesserten Verständnis von Wasserhaushaltsprozessen in der durch das oberflächennahe Grundwasser und die Oberflächengewässerdynamik beeinflussten Talauenzone. Darüber hinaus konnten durch die Implementierung der Messergebnisse konsistente Anfangs- und Randbedingungen für die Wasserhaushalts- und Grundwassermodellierung im Modellkonzept IWAN realisiert werden. Mit dem Modell IWAN (Integrated Modelling of Water Balance and Nutrient Dynamics) wurde ein Werkzeug geschaffen, welches die Berücksichtigung spezifischer hydrologischer Eigenschaften von Tieflandauen, wie z. B. den Einfluss des oberflächennahen Grundwassers bzw. der Dynamik von Oberflächenwasserständen auf den Wasserhaushalt, ermöglicht. Es basiert auf der Kopplung des deterministischen distribuierten hydrologischen Modells WASIM-ETH mit dem dreidimensionalen Finite-Differenzen-basierten Grundwassermodel MODFLOW. Die Modellierung der Stickstoffmetabolik im Grundwasser erfolgt durch das mit Grundwassermodell gekoppelte Stofftransportmodel MT3D. Zur modellbasierten Simulation des Wasserhaushalts der Tieflandauenlandschaften wurde das Modellkonzept IWAN für verschieden skalige Teileinzugsgebiete an der Havel für Simulationszeiträume von 2 Wochen bis zu 13 Jahren angewandt. Dabei wurden die Teilmodelle für Wasserhaushalts- und Grundwassermodellierung in zwei unterschiedlichen Teileinzugsgebieten der ”Unteren Havel Niederung“ kalibriert. Die anschließende Validierung erfolgte für das gesamte Einzugsgebiet der ”Unteren Havel“. Die Unsicherheiten des Modellansatzes sowie die Anwendbarkeit des Modells im Untersuchungsraum wurden geprüft und die Limitierung der Übertragbarkeit auf andere grundwasserbeeinflusste Tieflandeinzugsgebiete analysiert. Die Ergebnisse der Wasserhaushaltssimulationen führen einerseits zum erweiterten Prozessverständnis des Wasserhaushalts in Flachlandeinzugsgebieten, andererseits ermöglichten sie durch die Quantifizierung einzelner Prozessgrößen die Beurteilung der Steuerungsfunktion einzelner Wasserhaushaltsprozesse. Auf der Basis lokaler Simulationsergebnisse sowie geomorphologischer und gewässermorphologischer Analysen wurde ein Algorithmus entwickelt, welcher die Abgrenzung des direkten Eigeneinzugsgebiets der Havel als Raum der direkten Interaktion zwischen Oberflächengewässer und umgebendem Einzugsgebiet beschreibt. Durch Simulation des Wasserhaushalts im Eigeneinzugsgebiet mit dem Modell IWAN konnten die Interaktionsprozesse zwischen Fluss und Talauenlandschaft quantitativ beschrieben werden. Dies ermöglichte eine Bewertung der Abflussanteile aus dem Eigeneinzugsgebiet sowie eine Quantifizierung der zeitlich variablen Retentionskapazität der Auenlandschaft während Hochwasserereignissen. Zur Abschätzung des Einflusses veränderter Landnutzung und angepassten Managements auf den Wasserhaushalt der Talaue wurden Szenarien entwickelt, welche Änderungen der Landnutzung sowie der Gewässergeometrie implizieren. Die Simulation des Wasserhaushalts unter jeweiligen Szenariobedingungen ermöglichte die detaillierte Analyse sich ändernder Randbedingungen auf den Gebietswasserhaushalt und auf die Austauschprozesse zwischen Grundwasser und Oberflächengewässer. Zur Untersuchung der Stickstoffmetabolik im Grundwasser der Talauenlandschaft wurde das im Modellkonzept IWAN integrierte Stofftransportmodell MT3D für das Eigeneinzugsgebiet der Havel angewandt. Dies ermöglichte eine Bilanzierung der aus dem Grundwasser des Eigeneinzugsgebiets stammenden Nitratfrachtanteile der Havel sowie von Nitratkonzentrationen im Grundwasser. Szenariensimulationen, welche verminderte Nitrateinträge aus der durchwurzelten Bodenzone annehmen, ermöglichten die Quantifizierung der Effizienz von Managementmaßnahmen und Landnutzungsänderungen in Hinblick auf die Minimierung von Einträgen in Grundwasser und Oberflächengewässer.
Many European countries have experienced a significant increase of unemployment in recent years. This paper reviews several theoretical models that try to explain this phenomenon. Predominantly, these models claim a link between the poor performance of European labor markets and the high level of market regulation. Commonly referred to as the Eurosclerosis debate, prominent approaches consider insider-outsider relationships, search-models, and the influence of hiring and firing costs on equilibrium employment. The paper presents empirical evidence of each model and studies the relevance of the identified rigidities as a determinant of high unemployment in Europe. Furthermore, a case study analyzes the unemployment problem in Germany and critically discusses new reform efforts. In particular this section analyzes whether the recently enacted Hartz reforms can induce higher employment.
Wetting and phase transitions play a very important role our daily life. Molecularly thin films of long-chain alkanes at solid/vapour interfaces (e.g. C30H62 on silicon wafers) are very good model systems for studying the relation between wetting behaviour and (bulk) phase transitions. Immediately above the bulk melting temperature the alkanes wet partially the surface (drops). In this temperature range the substrate surface is covered with a molecularly thin ordered, solid-like alkane film ("surface freezing"). Thus, the alkane melt wets its own solid only partially which is a quite rare phenomenon in nature. The thesis treats about how the alkane melt wets its own solid surface above and below the bulk melting temperature and about the corresponding melting and solidification processes. Liquid alkane drops can be undercooled to few degrees below the bulk melting temperature without immediate solidification. This undercooling behaviour is quite frequent and theoretical quite well understood. In some cases, slightly undercooled drops start to build two-dimensional solid terraces without bulk solidification. The terraces grow radially from the liquid drops on the substrate surface. They consist of few molecular layers with the thickness multiple of all-trans length of the molecule. By analyzing the terrace growth process one can find that, both below and above the melting point, the entire substrate surface is covered with a thin film of mobile alkane molecules. The presence of this film explains how the solid terrace growth is feeded: the alkane molecules flow through it from the undercooled drops to the periphery of the terrace. The study shows for the first time the coexistence of a molecularly thin film ("precursor") with partially wetting bulk phase. The formation and growth of the terraces is observed only in a small temperature interval in which the 2D nucleation of terraces is more likely than the bulk solidification. The nucleation mechanisms for 2D solidification are also analyzed in this work. More surprising is the terrace behaviour above bulk the melting temperature. The terraces can be slightly overheated before they melt. The melting does not occur all over the surface as a single event; instead small drops form at the terrace edge. Subsequently these drops move on the surface "eating" the solid terraces on their way. By this they grow in size leaving behind paths from were the material was collected. Both overheating and droplet movement can be explained by the fact that the alkane melt wets only partially its own solid. For the first time, these results explicitly confirm the supposed connection between the absence of overheating in solid and "surface melting": the solids usually start to melt without an energetic barrier from the surface at temperatures below the bulk melting point. Accordingly, the surface freezing of alkanes give rise of an energetic barrier which leads to overheating.
Die Etablierung der Transkription von kompletten Genen auf planaren Oberflächen soll eine Verbindung zwischen der Mikroarraytechnologie und der Transkriptomforschung herstellen. Darüber hinaus kann mit diesem Verfahren ein Brückenschlag zwischen der Synthese der Gene und ihrer kodierenden Proteine auf einer Oberfläche erfolgen. Alle transkribierten RNAs wurden mittels RT-PCR in cDNA umgeschrieben und in einer genspezifischen PCR amplifiziert. Die PCR-Produkte wurden hierfür entweder per Hand oder maschinell auf die Oberfläche transferiert. Über eine Oberflächen-PCR war es möglich, die Gensequenz des Reportergens EGFP direkt auf der Oberfläche zu synthetisieren und anschließend zu transkribieren. Somit war eine Transkription mit weniger als 1 ng an Matrize möglich. Der Vorteil einer Oberflächen-Transkription gegenüber der in Lösung liegt in der mehrfachen Verwendung der immobilisierten Matrize, wie sie in dieser Arbeit dreimal erfolgreich absolviert wurde. Die Oberflächen-Translation des EGFP-Gens konnte ebenfalls zweimal an einer immobilisierten Matrize gezeigt werden, wobei Zweifel über eine echte Festphasen-Translation nicht ausgeräumt werden konnten. Zusammenfassend kann festgestellt werden, dass die Transkription und Translation von immobilisierten Gensequenzen auf planaren Oberflächen möglich ist, wofür die linearen Matrizen direkt auf der Oberfläche synthetisiert werden können.
Reversible addition-fragmentation transfer (RAFT) was used as a controlling technique for studying the aqueous heterophase polymerization. The polymerization rates obtained by calorimetric investigation of ab initio emulsion polymerization of styrene revealed the strong influence of the type and combination of the RAFT agent and initiator on the polymerization rate and its profile. The studies in all-glass reactors on the evolution of the characteristic data such as average molecular weight, molecular weight distribution, and average particle size during the polymerization revealed the importance of the peculiarities of the heterophase system such as compartmentalization, swelling, and phase transfer. These results illustrated the important role of the water solubility of the initiator in determining the main loci of polymerization and the crucial role of the hydrophobicity of the RAFT agent for efficient transportation to the polymer particles. For an optimum control during ab-initio batch heterophase polymerization of styrene with RAFT, the RAFT agent must have certain hydrophilicity and the initiator must be water soluble in order to minimize reactions in the monomer phase. An analytical method was developed for the quantitative measurements of the sorption of the RAFT agents to the polymer particles based on the absorption of the visible light by the RAFT agent. Polymer nanoparticles, temperature, and stirring were employed to simulate the conditions of a typical aqueous heterophase polymerization system. The results confirmed the role of the hydrophilicity of the RAFT agent on the effectiveness of the control due to its fast transportation to the polymer particles during the initial period of polymerization after particle nucleation. As the presence of the polymer particles were essential for the transportation of the RAFT agents into the polymer dispersion, it was concluded that in an ab initio emulsion polymerization the transport of the hydrophobic RAFT agent only takes place after the nucleation and formation of the polymer particles. While the polymerization proceeds and the particles grow the rate of the transportation of the RAFT agent increases with conversion until the free monomer phase disappears. The degradation of the RAFT agent by addition of KPS initiator revealed unambigueous evidence on the mechanism of entry in heterophase polymerization. These results showed that even extremely hydrophilic primary radicals, such as sulfate ion radical stemming from the KPS initiator, can enter the polymer particles without necessarily having propagated and reached a certain chain length. Moreover, these results recommend the employment of azo-initiators instead of persulfates for the application in seeded heterophase polymerization with RAFT agents. The significant slower rate of transportation of the RAFT agent to the polymer particles when its solvent (styrene) was replaced with a more hydrophilic monomer (methyl methacrylate) lead to the conclusion that a complicated cooperative and competitive interplay of solubility parameters and interaction parameter with the particles exist, determining an effective transportation of the organic molecules to the polymer particles through the aqueous phase. The choice of proper solutions of even the most hydrophobic organic molecules can provide the opportunity of their sorption into the polymer particles. Examples to support this idea were given by loading the extremely stiff fluorescent molecule, pentacene, and very hydrophobic dye, Sudan IV, into the polymer particles. Finally, the first application of RAFT at room temperature heterophase polymerization is reported. The results show that the RAFT process is effective at ambient temperature; however, the rate of fragmentation is significantly slower. The elevation of the reaction temperature in the presence of the RAFT agent resulted in faster polymerization and higher molar mass, suggesting that the fragmentation rate coefficient and its dependence on the temperature is responsible for the observed retardation.
Understanding the principles of self-organisation exhibited by block copolymers requires the combination of synthetic and physicochemical knowledge. The ability to synthesise block copolymers with desired architecture facilitates the ability to manipulate their aggregation behaviour, thus providing the key to nanotechnology. Apart from relative block volumes, the size and morphology of the produced nanostructures is controlled by the effective incompatibility between the different blocks. Since polymerisation techniques allowing for the synthesis of well-defined block copolymers are restricted to a limited number of monomers, the ability to tune the incompatibility is very limited. Nevertheless, Polymer Analogue Reactions can offer another possibility for the production of functional block copolymers by chemical modifications of well-defined polymer precursors. Therefore, by applying appropriate modification methods both volume fractions and incompatibility, can be adjusted. Moreover, copolymers with introduced functional units allow utilization of the concept of molecular recognition in the world of synthetic polymers. The present work describes a modular synthetic approach towards functional block copolymers. Radical addition of functional mercaptanes was employed for the introduction of diverse functional groups to polybutadiene-containing block copolymers. Various modifications of 1,2-polybutadiene-poly(ethylene oxide) block copolymer precursors are described in detail. Furthermore, extension of the concept to 1,2-polybutadiene-polystyrene block copolymers is demonstrated. Further investigations involved the self-organisation of the modified block copolymers. Formed aggregates in aqueous solutions of block copolymers with introduced carboxylic acid, amine and hydroxyl groups as well as fluorinated chains were characterised. Study of the aggregation behaviour allowed general conclusions to be drawn regarding the influence of the introduced groups on the self-organisation of the modified copolymers. Finally, possibilities for the formation of complexes, based on electrostatic or hydrogen-bonding interactions in mixtures of block copolymers bearing mutually interacting functional groups, were investigated.
The development of the Polish telecommunications administration in the years 1989/90 to 2003 is marked by the processes of liberalisation and privatisation the telecommunications sector underwent during that period. The gradual liberalisation of the Polish telecommunications sector started as early as 1992. In the beginning, national strategies were pursued. The most important of these was the creation of a bipolar market structure in the local area networks. In the second half of the 1990ies the approaching EU membership accelerated the process of liberalisation and consequently the development of a framework of regulations. EU standards are more directed towards setting out a legal framework for regulation than prescribing concrete details of administrative organisation. Nevertheless, the independent regulatory agencies typical for Western Europe served as a model for the introduction of a new regulatory body responsible for the telecommunications sector in Poland. The growing influence of EU legislation changed telecommunications policy as well as administrative practices. There has been a shift of responsibilities from the ministry to the regulatory agency, but the question remains, if the agency gained enough power to fulfil its regulatory function. In the following the legislative framework created by the EU in telecommunications policy will be described and the model of independent regulatory agencies, as it is typical for most EU countries, will be introduced. Some categories for the analysis of the Polish regulatory system will be deduced from the discussion on the regulations of telecommunication in the established EU-Nations (see Böllhoff 2002 and 2003, Thatcher 2002a and 2002b, Thatcher/Stone Sweet 2002). Subsequently the basic features of Polish telecommunication policies in the 1990ies and its effects on the telecommunications sector will be outlined. In the third chapter the development of organisational structures on the ministerial level and within the regulatory agency will be examined. In the forth chapter I will look at the distribution of power and the coordination of the various authorities responsible for telecommunication regulations. The focus of this chapter is on the Polish regulatory agency and its relationships with the ministry, with the anti-monopoly office and with the Broadcasting and Television Council. In a conclusion, the main findings will be summed up.
To investigate eye-movement control in reading, the present thesis examined three phenomena related to the eyes’ landing position within words, (1) the optimal viewing position (OVP), (2) the preferred viewing location (PVL), and (3) the Fixation-Duration Inverted-Optimal Viewing Position (IOVP) Effect. Based on a corpus-analytical approach (Exp. 1), the influence of variables word length, launch site distance, and word frequency was systematically explored. In addition, five experimental manipulations were conducted. First, word center was identified as the OVP, that is the position within a word where refixation probability is minimal. With increasing launch site distance, however, the OVP was found to move towards the word beginning. Several possible causes of refixations were discussed. The issue of refixation saccade programming was extensively investigated, suggesting that pre-planned and directly controlled refixation saccades coexist. Second, PVL curves, that is landing position distributions, show that the eyes are systematically deviated from the OVP, due to visuomotor constraints. By far the largest influence on mean and standard deviation of the Gaussian PVL curve was exhibited by launch site distance. Third, it was investigated how fixation durations vary as a function of landing position. The IOVP effect was replicated: Fixations located at word center are longer than those falling near the edges of a word. The effect of word frequency and/or launch site distance on the IOVP function mainly consisted in a vertical displacement of the curve. The Fixation-Duration IOVP effect is intriguing because word center (the OVP) would appear to be the best place to fixate and process a word. A critical part of the current work was devoted to investigate the origin of the effect. It was suggested that the IOVP effect arises as a consequence of mislocated fixations, i.e. fixations on unintended words, which are caused by saccadic errors. An algorithm for estimating the proportion of mislocated fixations from empirical data was developed, based on extrapolations of landing position distributions beyond word boundaries. As a new central theoretical claim it was suggested that a new saccade program is started immediately if the intended target word is missed. On average, this will lead to decreased durations for mislocated fixations. Because mislocated fixations were shown to be most prevalent at the beginning and end of words, the proposed mechanism generated the inverted U-shape for fixation durations when computed as a function of landing position. The proposed mechanism for generating the effect is generally compatible with both oculomotor and cognitive models of eye-movement control in reading.
The role of feedback between erosional unloading and tectonics controlling the development of the Himalaya is a matter of current debate. The distribution of precipitation is thought to control surface erosion, which in turn results in tectonic exhumation as an isostatic compensation process. Alternatively, subsurface structures can have significant influence in the evolution of this actively growing orogen. Along the southern Himalayan front new 40Ar/39Ar white mica and apatite fission track (AFT) thermochronologic data provide the opportunity to determine the history of rock-uplift and exhumation paths along an approximately 120-km-wide NE-SW transect spanning the greater Sutlej region of the northwest Himalaya, India. 40Ar/39Ar data indicate, consistent with earlier studies that first the High Himalayan Crystalline, and subsequently the Lesser Himalayan Crystalline nappes were exhumed rapidly during Miocene time, while the deformation front propagated to the south. In contrast, new AFT data delineate synchronous exhumation of an elliptically shaped, NE-SW-oriented ~80 x 40 km region spanning both crystalline nappes during Pliocene-Quaternary time. The AFT ages correlate with elevation, but show within the resolution of the method no spatial relationship to preexisting major tectonic structures, such as the Main Central Thrust or the Southern Tibetan Fault System. Assuming constant exhumation rates and geothermal gradient, the rocks of two age vs. elevation transects were exhumed at ~1.4 ±0.2 and ~1.1 ±0.4 mm/a with an average cooling rate of ~50-60 °C/Ma during Pliocene-Quaternary time. The locus of pronounced exhumation defined by the AFT data coincides with a region of enhanced precipitation, high discharge, and sediment flux rates under present conditions. We therefore hypothesize that the distribution of AFT cooling ages might reflect the efficiency of surface processes and fluvial erosion, and thus demonstrate the influence of erosion in localizing rock-uplift and exhumation along southern Himalayan front, rather than encompassing the entire orogen.Despite a possible feedback between erosion and exhumation along the southern Himalayan front, we observe tectonically driven, crustal exhumation within the arid region behind the orographic barrier of the High Himalaya, which might be related to and driven by internal plateau forces. Several metamorphic-igneous gneiss dome complexes have been exhumed between the High Himalaya to the south and Indus-Tsangpo suture zone to the north since the onset of Indian-Eurasian collision ~50 Ma ago. Although the overall tectonic setting is characterized by convergence the exhumation of these domes is accommodated by extensional fault systems.Along the Indian-Tibetan border the poorly described Leo Pargil metamorphic-igneous gneiss dome (31-34°N/77-78°E) is located within the Tethyan Himalaya. New field mapping, structural, and geochronologic data document that the western flank of the Leo Pargil dome was formed by extension along temporally linked normal fault systems. Motion on a major detachment system, referred to as the Leo Pargil detachment zone (LPDZ) has led to the juxtaposition of low-grade metamorphic, sedimentary rocks in the hanging wall and high-grade metamorphic gneisses in the footwall. However, the distribution of new 40Ar/39Ar white mica data indicate a regional cooling event during middle Miocene time. New apatite fission track (AFT) data demonstrate that subsequently more of the footwall was extruded along the LPDZ in a brittle stage between 10 and 2 Ma with a minimum displacement of ~9 km. Additionally, AFT-data indicate a regional accelerated cooling and exhumation episode starting at ~4 Ma. Thus, tectonic processes can affect the entire orogenic system, while potential feedbacks between erosion and tectonics appear to be limited to the windward sides of an orogenic systems.
Adsorption layers of soluble surfactants enable and govern a variety of phenomena in surface and colloidal sciences, such as foams. The ability of a surfactant solution to form wet foam lamellae is governed by the surface dilatational rheology. Only systems having a non-vanishing imaginary part in their surface dilatational modulus, E, are able to form wet foams. The aim of this thesis is to illuminate the dissipative processes that give rise to the imaginary part of the modulus. There are two controversial models discussed in the literature. The reorientation model assumes that the surfactants adsorb in two distinct states, differing in their orientation. This model is able to describe the frequency dependence of the modulus E. However, it assumes reorientation dynamics in the millisecond time regime. In order to assess this model, we designed a SHG pump-probe experiment that addresses the orientation dynamics. Results obtained reveal that the orientation dynamics occur in the picosecond time regime, being in strong contradiction with the two states model. The second model regards the interface as an interphase. The adsorption layer consists of a topmost monolayer and an adjacent sublayer. The dissipative process is due to the molecular exchange between both layers. The assessment of this model required the design of an experiment that discriminates between the surface compositional term and the sublayer contribution. Such an experiment has been successfully designed and results on elastic and viscoelastic surfactant provided evidence for the correctness of the model. Because of its inherent surface specificity, surface SHG is a powerful analytical tool that can be used to gain information on molecular dynamics and reorganization of soluble surfactants. They are central elements of both experiments. However, they impose several structural elements of the model system. During the course of this thesis, a proper model system has been identified and characterized. The combination of several linear and nonlinear optical techniques, allowed for a detailed picture of the interfacial architecture of these surfactants.
Subduction zones are regions of intense earthquake activity up to great depth. Sources are located inside the subducting lithosphere and, as a consequence, seismic radiation from subduction zone earthquakes is strongly affected by the interior slab structure. The wave field of these intraslab events observed in the forearc region is profoundly influenced by a seismically slow layer atop the slab surface. This several kilometer thick low-velocity channel (wave guide) causes the entrapment of seismic energy producing strong guided wave phases that appear in P onsets in certain regions of the forearc. Observations at the Chile-Peru subduction zone presented here, as well as observations at several other circum-pacific subduction zones show such signals. Guided wave analysis contributes details of immense value regarding the processes near the slab surface, such as layering of subducted lithosphere, source locations of intraslab seismicity and most of all, range and manner of mineralogical phase transitions. Seismological data stem from intermediate depth events (depth range 70 km - 300 km) recorded in northern Chile near 21 Grad S during the collaborative research initiative " Deformation Processes in the Andes" (SFB 267). A subset of stations - all located within a slab-parallel transect close to 69 Grad W - show low-frequency first arrivals (2 Hz), sometimes followed by a second high-frequency phase. We employ 2-dimensional finite-difference simulations of complete P-SV wave propagation to explore the parameter space of subduction zone wave guides and explain the observations. Key processes underlying the guided wave propagation are studied: Two distinct mechanisms of decoupling of trapped energy from the wave guide are analyzed - a prerequisite to observe the phases at stations located at large distances from the wave guide (up to 100 km). Variations of guided wave effects perpendicular to the strike of the subduction zone are investigated, such as the influence of phases traveling in the fast slab. Further, the merits and limits of guided wave analysis are assessed. Frequency spectra of the guided wave onsets prove to be a robust quantity that captures guided wave characteristics at subduction zones including higher mode excitation. They facilitate the inference of wave guide structure and source positioning: The peak frequency of the guided wave fundamental mode is associated with a certain combination of layer width and velocity contrast. The excitation strength of the guided wave fundamental mode and higher modes is associated with source position and orientation relative to the low-velocity layer. The guided wave signals at the Chile-Peru subduction zone are caused by energy that leaks from the subduction zone wave guide. On the one hand, the bend shape of the slab allows for leakage at a depth of 100 km. On the other, equalization of velocities between the wave guide and the host rocks causes further energy leakage at the contact zone between continental and oceanic crust (70 km depth). Guided waves bearing information on deep slab structure can therefore be recorded at specific regions in the forearc. These regions are determined based on slab geometry, and their locations coincide with the observations. A number of strong constraints on the structure of the Chile-Peru slab are inferred: The deep wave guide for intraslab events is formed by a layer of 2 km average width that remains seismically slow (7 percent velocity reduction compared to surrounding mantle). This low-velocity layer at the top of the Chile-Peru slab is imaged from a depth of 100 km down to at least 160 km. Intermediate depth events causing the observed phases are located inside the layer or directly beneath it in the slab mantle. The layer is interpreted as partially eclogized lower oceanic crust persisting to depth beyond the volcanic arc.
This paper analyses the structural change in Russia during the transition from the planned to a market economy. With regard to the famous three sector hypothesis, broad economic sectors were formed as required by this theory. The computation of their shares at GNP at market prices using Input-Output tables, and the adjustment of results from distortions, generated as side effects of tax avoidance practices, shows results that clearly reject claims that Russia would be on the road to a post-industrial service economy. Instead, at least until 2001, a tendency of "primarisation" could be observed, that presents Russia closer to less-developed countries.
Stochastic information, to be understood as "information gained by the application of stochastic methods", is proposed as a tool in the assessment of changes in climate. This thesis aims at demonstrating that stochastic information can improve the consideration and reduction of uncertainty in the assessment of changes in climate. The thesis consists of three parts. In part one, an indicator is developed that allows the determination of the proximity to a critical threshold. In part two, the tolerable windows approach (TWA) is extended to a probabilistic TWA. In part three, an integrated assessment of changes in flooding probability due to climate change is conducted within the TWA. The thermohaline circulation (THC) is a circulation system in the North Atlantic, where the circulation may break down in a saddle-node bifurcation under the influence of climate change. Due to uncertainty in ocean models, it is currently very difficult to determine the distance of the THC to the bifurcation point. We propose a new indicator to determine the system's proximity to the bifurcation point by considering the THC as a stochastic system and using the information contained in the fluctuations of the circulation around the mean state. As the system is moved closer to the bifurcation point, the power spectrum of the overturning becomes "redder", i.e. more energy is contained in the low frequencies. Since the spectral changes are a generic property of the saddle-node bifurcation, the method is not limited to the THC, but it could also be applicable to other systems, e.g. transitions in ecosystems. In part two, a probabilistic extension to the tolerable windows approach (TWA) is developed. In the TWA, the aim is to determine the complete set of emission strategies that are compatible with so-called guardrails. Guardrails are limits to impacts of climate change or to climate change itself. Therefore, the TWA determines the "maneuvering space" humanity has, if certain impacts of climate change are to be avoided. Due to uncertainty it is not possible to definitely exclude the impacts of climate change considered, but there will always be a certain probability of violating a guardrail. Therefore the TWA is extended to a probabilistic TWA that is able to consider "probabilistic uncertainty", i.e. uncertainty that can be expressed as a probability distribution or uncertainty that arises through natural variability. As a first application, temperature guardrails are imposed, and the dependence of emission reduction strategies on probability distributions for climate sensitivities is investigated. The analysis suggests that it will be difficult to observe a temperature guardrail of 2°C with high probabilities of actually meeting the target. In part three, an integrated assessment of changes in flooding probability due to climate change is conducted. A simple hydrological model is presented, as well as a downscaling scheme that allows the reconstruction of the spatio-temporal natural variability of temperature and precipitation. These are used to determine a probabilistic climate impact response function (CIRF), a function that allows the assessment of changes in probability of certain flood events under conditions of a changed climate. The assessment of changes in flooding probability is conducted in 83 major river basins. Not all floods can be considered: Events that either happen very fast, or affect only a very small area can not be considered, but large-scale flooding due to strong longer-lasting precipitation events can be considered. Finally, the probabilistic CIRFs obtained are used to determine emission corridors, where the guardrail is a limit to the fraction of world population that is affected by a predefined shift in probability of the 50-year flood event. This latter analysis has two main results. The uncertainty about regional changes in climate is still very high, and even small amounts of further climate change may lead to large changes in flooding probability in some river systems.
Adhesion of biological cells to their environment is mediated by two-dimensional clusters of specific adhesion molecules which are assembled in the plasma membrane of the cells. Due to the activity of the cells or external influences, these adhesion sites are usually subject to physical forces. In recent years, the influence of such forces on the stability of cellular adhesion clusters was increasingly investigated. In particular, experimental methods that were originally designed for the investigation of single bond rupture under force have been applied to investigate the rupture of adhesion clusters. The transition from single to multiple bonds, however, is not trivial and requires theoretical modelling. Rupture of biological adhesion molecules is a thermally activated, stochastic process. In this work, a stochastic model for the rupture and rebinding dynamics of clusters of parallel adhesion molecules under force is presented. In particular, the influence of (i) a constant force as it may be assumed for cellular adhesion clusters is investigated and (ii) the influence of a linearly increasing force as commonly used in experiments is considered. Special attention is paid to the force-mediated cooperativity of parallel adhesion bonds. Finally, the influence of a finite distance between receptors and ligands on the binding dynamics is investigated. Thereby, the distance can be bridged by polymeric linker molecules which tether the ligands to a substrate.
Amphiphilic molecules contain a hydrophilic headgroup and a hydrophobic tail. The headgroup is polar or ionic and likes water, the tail is typically an aliphatic chain that cannot be accommodated in a polar environment. The prevailing molecular asymmetry leads to a spontaneous adsorption of amphiphiles at the air/water or oil/water interfaces. As a result, the surface tension and the surface rheology is changed. Amphiphiles are important tools to deliberately modify the interfacial properties of liquid interfaces and enable new phenomena such as foams which cannot be formed in a pure liquid. In this thesis we investigate the static and dynamic properties of adsorption layers of soluble amphiphiles at the air/water interface, the so called Gibbs monolayers. The classical way for an investigation of these systems is based on a thermodynamic analysis of the equilibrium surface tension as a function of the bulk composition in the framework of Gibbs theory. However, thermodynamics does not provide any structural information and several recent publications challenge even fundamental text book concepts. The experimental investigation faces difficulties imposed by the low surface coverage and the presence of dissolved amphiphiles in the adjacent bulk phase. In this thesis we used a suite of techniques with the sensitivity to detect less than a monolayer of molecules at the air-water interface. Some of these techniques are extremely complex such as infrared visible sum frequency generation (IR-VIS SFG) spectroscopy or second harmonic generation (SHG). Others are traditional techniques, such as ellipsometry employed in new ways and pushed to new limits. Each technique probes selectively different parts of the interface and the combination provides a profound picture of the interfacial architecture. The first part of the thesis is dedicated to the distribution of ions at interfaces. Adsorption layers of ionic amphiphiles serve as model systems allowing to produce a defined surface charge. The charge of the monolayer is compensated by the counterions. As a result of a complex zoo of interactions there will be a defined distribution of ions at the interface, however, its experimental determination is a big scientific challenge. We could demonstrate that a combination of linear and nonlinear techniques gives direct insights in the prevailing ion distribution. Our investigations reveal specific ion effects which cannot be described by classical Poisson-Boltzmann mean field type theories. Adsorption layer and bulk phase are in thermodynamic equilibrium, however, it is important to stress that there is a constant molecular exchange between adsorbed and dissolved species. This exchange process is a key element for the understanding of some of the thermodynamic properties. An excellent way to study Gibbs monolayers is to follow the relaxation from a non-equilibrium to an equilibrium state. Upon compression amphiphiles must leave the adsorption layer and dissolve in the adjacent bulk phase. Upon expansion amphiphiles must adsorb at the interface to restore the equilibrium coverage. Obviously the frequency of the expansion and compression cycles must match the molecular exchange processes. At too low frequencies the equilibrium is maintained at all times. If the frequency is too fast the system behaves as a monolayer of insoluble surfactants. In this thesis we describe an unique variant of an oscillating bubble technique that measures precisely the real and imaginary part of the complex dilational modulus E in a frequency range up to 500 Hz. The extension of about two decades in the time domain in comparison to the conventional method of an oscillating drop is a tremendous achievement. The imaginary part of the complex dilational modulus E is a consequence of a dissipative process which is interpreted as an intrinsic surface dilational viscosity. The IR-VIS SFG spectra of the interfacial water provide a molecular interpretation of the underlying dissipative process.
Ziel der Studie war die Untersuchung individueller und familialer Faktoren für den sozialen Status eines Kindes in seiner Schulklasse. Durch die Unterscheidung von Akzeptanz und Einfluss als zweier Hauptdimensionen des sozialen Status konnte die Arbeit aufklären, welche Rolle verschiedene Attribute für das Erreichen von Akzeptanz oder Einfluss spielen. 234 Dritt- und Fünftklässler aus Berliner Grundschulen erhielten soziometrische Maße, durch welche der soziale Status erhoben wurde (Akzeptanz und Einfluss). Individuelle und familiale Faktoren wurden mittels Peernominationen über das Verhalten der Kinder (Fremdurteil), Schulnoten (Lehrerangabe)und Maße des sozio-ökonomischen Status der Eltern (Elternangabe)erhoben. Die Ergebnisse zeigen, dass Akzeptanz positiv mit prosozialem und negativ mit aggressivem Verhalten eines Kindes assoziiert ist. Die Zusammenhänge dieser Verhaltensweisen mit Einfluss wiesen in dieselbe Richtung, waren aber deutlich geringer. Ideenreichtum und Humor hingen mit Akzeptanz und Einfluss gleichermaßen positiv zusammen, sowie Traurigsein gleichermaßen negativ mit beiden Statusdimensionen verbunden war. Das Verhalten eines Kindes vermittelte den Zusammenhang zwischen Merkmalen wie Geschlecht, relativem Alter, Schulnoten und der Akzeptanz und dem Einfluss eines Kindes. Zum Beispiel war die positive Beziehung zwischen Schulnoten und dem sozialen Status überwiegend auf die mit(guten)Schulnoten assoziierten Verhaltensweisen Prosozialität und (geringe) Aggressivität zurückzuführen. Die größere Akzeptanz von Mädchen ließ sich ebenso durch deren größere Prosozialität und geringere Aggressivität erklären. Jungen waren im Hinblick auf ihren Einfluss sowohl am oberen als auch am unteren Ende der Hierarchie überrepräsentiert. Sowohl sehr einflussreiche als auch einflusslose Jungen zeichneten sich durch eine erhöhte Aggressivität aus. Komplexere Analysen wiesen daraufhin, dass Jungen negative Auswirkungen von aggressivem Verhalten durch Humor und Ideenreichtum auf ihren Status kompensieren konnten. Der moderate Zusammenhang zwischen dem elterlichen sozioökonomischen Status und dem sozialen Status des Kindes wurde vollständig durch das Verhalten des Kindes mediiert. Das Elternhaus war wichtiger für die Akzeptanz als für den Einfluss eines Kindes. Kinder mit Migrationshintergrund waren sowohl weniger akzeptiert als auch weniger einflussreich in ihrer Klasse. Elterliche Trennung trug nicht zur sozialen Position eines Kindes bei.
This study is analysing the transformation of Slovak administration in the telecommunication sector between 1989 and 2004. The dynamic telecom sector forms a good example for the transition problems of post-socialist administration with special regard to the regulation regime change. After describing briefly the role of the telecom sector within economy, the Slovak sectoral policy is analysed. The focus is layed on telecom legislation (including the regulation framework), liberalization of the telecom market and privatisation of the former state owned telecom operator. The transformation of the organizational structure of the "Slovak telecommunication administration" is analysed in particular at the level of the ministry and the regulating agency.
From its first use in the field of biochemistry, instrumental analysis offered a variety of invaluable tools for the comprehensive description of biological systems. Multi-selective methods that aim to cover as many endogenous compounds as possible in biological samples use different analytical platforms and include methods like gene expression profile and metabolite profile analysis. The enormous amount of data generated in application of profiling methods needs to be evaluated in a manner appropriate to the question under investigation. The new field of system biology rises to the challenge to develop strategies for collecting, processing, interpreting, and archiving this vast amount of data; to make those data available in form of databases, tools, models, and networks to the scientific community. On the background of this development a multi-selective method for the determination of phytohormones was developed and optimised, complementing the profile analyses which are already in use (Chapter I). The general feasibility of a simultaneous analysis of plant metabolites and phytohormones in one sample set-up was tested by studies on the analytical robustness of the metabolite profiling protocol. The recovery of plant metabolites proved to be satisfactory robust against variations in the extraction protocol by using common extraction procedures for phytohormones; a joint extraction of metabolites and hormones from plant tissue seems practicable (Chapter II). Quantification of compounds within the context of profiling methods requires particular scrutiny (Chapter II). In Chapter III, the potential of stable-isotope in vivo labelling as normalisation strategy for profiling data acquired with mass spectrometry is discussed. First promising results were obtained for a reproducible quantification by stable-isotope in vivo labelling, which was applied in metabolomic studies. In-parallel application of metabolite and phytohormone analysis to seedlings of the model plant Arabidopsis thaliana exposed to sulfate limitation was used to investigate the relationship between the endogenous concentration of signal elements and the ‘metabolic phenotype’ of a plant. An automated evaluation strategy was developed to process data of compounds with diverse physiological nature, such as signal elements, genes and metabolites – all which act in vivo in a conditional, time-resolved manner (Chapter IV). Final data analysis focussed on conditionality of signal-metabolome interactions.
Vorwort 1. Einleitung 2. Statische vs. dynamische Analyse 3. Kriterien für den Erfolg statischer Quellcodeanalysemethoden 3.1. Theoretische Vorüberlegungen 3.2. 1. Kriterium: Verfügbarkeit des Quellcodes 3.3. 2. Kriterium: Unterstützung der Programmiersprache 3.4. 3. Kriterium: Zulassung von „echten“ Programmen der Problemdomäne 3.5. 4. Kriterium: Bewältigung der auftretenden Komplexität 3.6. 5. Kriterium: Schutz vor böswilliger Speichermanipulation 3.7. 6. Kriterium: Garantie für die Umgebung des laufenden Prozesses 3.8. Fazit 3.9. Verwandte Arbeiten 4. Bewertung von statischen Methoden für C/C++ typische Programme 4.1. Hintergrund 4.2. Prämissen 4.3. 1. Problemfeld: Programmgröße und Interferenz 4.4. 2. Problemfeld: Semantik 4.5. 3. Problemfeld: Programmfluss 4.6. 4. Problemfeld: Zeigerarithmetik 4.7. Dynamische Konzepte zur Erfüllung des fünften Kriteriums auf Quellcodebasis 4.8. Fazit 4.9. Verwandte Arbeiten 5. Kriterien für den Erfolg dynamischer Ansätze 5.1. Hintergrund 5.2. Verfügbarkeit des Quellcodes 5.3. Unterstützung der Programmiersprache 5.4. Zulassung von „echten“ Programmen aus der Problemdomäne 5.5. Bewältigung der auftretenden Komplexität 5.6. Schutz vor böswilliger Speichermanipulation 5.7. Garantie für die Umgebung des laufenden Prozesses 5.8. Fazit 6. Klassifikation und Evaluation dynamischer Ansätze 6.1. Hintergrund 6.2. Quellcodesubstitution 6.3. Binärcodemodifikation/Binary-Rewriting 6.4. Maschinencodeinterpreter 6.5. Intrusion-Detection-Systeme 6.6. Virtuelle Maschinen/Safe Languages 6.7. Mechanismen zur „Härtung“ von bestehenden Code 6.8. SandBoxing/System-Call-Interposition 6.9. Herkömmliche Betriebssystemmittel 6.10. Access-Control-Lists/Domain-Type-Enforcement 6.11. Fazit 7. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext von RealTimeBattle 7.1. Vorstellung von RealTimeBattle 7.2. Charakterisierung des Problems 7.3. Alternative Lösungsvarianten/Rekapitulation 7.4. Übertragung der Ergebnisse statischer Analysemethoden auf RealTimeBattle 7.5. Übertragung der Ergebnisse dynamischer Analysemethoden auf RealTimeBattle 7.5.1. Vorstellung der RSBAC basierten Lösung 7.5.2. Vorstellung der Systrace basierten Lösung 7.6. Fazit 7.7. Verwandte Arbeiten 8. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext von Asparagus 8.1. Vorstellung von Asparagus 8.2. Charakterisierung des Problems 8.3. Lösung des Problems 8.4. Fazit 8.5. Verwandte Arbeiten 9. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext vom DCL 9.1. Vorstellung des DCL 9.2. Charakterisierung des Problems 9.3. Experimente im DCL und die jeweilige Lösung 9.3.1. Foucaultsches Pendel 9.3.2. Lego Mindstorm Roboter 9.3.3. Hau den Lukas 9.4. Fazit 9.5. Verwandte Arbeiten 10. Sichere Ausführung nicht vertrauenswürdiger Programme im Kontext der semiautomatischen Korrektur von Betriebssystemarchitektur-Übungsaufgaben 10.1. Vorstellung des Übungsbetriebes zur Vorlesung „Betriebssystsemarchitektur 10.2. Charakterisierung des Problems 10.3. Lösungsvorschläge 10.3.1. Lösungsvorschläge für das Authentifizierungs-Problem 10.3.2. Lösungsvorschläge für das Transport-Problem 10.3.3. Lösungsvorschläge für das Build-Problem 10.3.4. Lösungsvorschläge für das Ausführungs-Problem 10.3.5. Lösungsvorschläge für das Ressourcen-Problem 10.3.6. Lösungsvorschläge für das Portabilitäts-Problem 10.4. Fazit 10.5. Verwandte Arbeiten 11. Schlussbetrachtungen Literaturverzeichnis Anhang -create_guardedrobot.sh: Die RealTimeBattle Security Infrastructure -vuln.c: Ein durch Pufferüberlauf ausnutzbares Programm -exploit.c: Ein Beispielexploit für vuln.c. -aufg43.c: Lösung für eine Aufgabe im Rahmen der Betriebssystemarchitektur-Übung -Handout: Sichere Ausführung nicht vertrauenswürdiger Programme
Das 1817 erstmals schriftlich erwähnte Selen galt lange Zeit nur als toxisch und sogar als procancerogen, bis es 1957 von Schwarz und Foltz als essentielles Spurenelement erkannt wurde, dessen biologische Funktionen in Säugern durch Selenoproteine vermittelt werden. Die Familie der Glutathionperoxidasen nimmt hierbei eine wichtige Stellung ein. Für diese sind konkrete Funktionen und die dazugehörigen molekularen Mechanismen, welche über die von ihnen katalysierte Hydroperoxidreduktion und damit verbundene antioxidative Kapazität hinausgehen, bislang nur unzureichend beschrieben worden. Die Funktion der gastrointestinalen Glutathionperoxidase (GI-GPx) wird als Barriere gegen eine Hydroperoxidabsorption im Gastrointestinaltrakt definiert. Neuen Erkenntnissen zufolge wird die GI-GPx aber auch in verschiedenen Tumoren verstärkt exprimiert, was weitere, bis dato unbekannte, Funktionen dieses Enzymes wahrscheinlich macht. Um mögliche neue Funktionen der GI-GPx, vor allem während der Cancerogenese, abzuleiten, wurde hier die transkriptionale Regulation der GI-GPx detaillierter untersucht. Die Sequenzanalyse des humanen GI-GPx-Promotors ergab das Vorhandensein von zwei möglichen "antioxidant response elements" (ARE), bei welchen es sich um Erkennungssequenzen des Transkriptionsfaktors Nrf2 handelt. Die meisten der bekannten Nrf2-Zielgene gehören in die Gruppe der Phase-II-Enzyme und verfügen über antioxidative und/oder detoxifizierende Eigenschaften. Sowohl auf Promotorebene als auch auf mRNA- und Proteinebene konnte die Expression der GI-GPx durch typische, in der Nahrung enthaltene, Nrf2-Aktivatoren wie z.B. Sulforaphan oder Curcumin induziert werden. Eine direkte Beteiligung von Nrf2 wurde durch Cotransfektion von Nrf2 selbst bzw. von Keap1, das Nrf2 im Cytoplasma festhält, demonstriert. Somit konnte die GI-GPx eindeutig als Nrf2-Zielgen identifiziert werden. Ob sich die GI-GPx in die Gruppe der antiinflammatorischen und anticancerogenen Phase-II-Enzyme einordnen lässt, bleibt noch zu untersuchen. Die Phospholipidhydroperoxid Glutathionperoxidase (PHGPx) nimmt aufgrund ihres breiten Substratspektrums, ihrer hohen Lipophilie und ihrer Fähigkeit, Thiole zu modifizieren, eine Sonderstellung innerhalb der Familie der Glutathionperoxidasen ein. Mit Hilfe eines PHGPx-überexprimierenden Zellmodells wurden deshalb Beeinflussungen des zellulären Redoxstatus und daraus resultierende Veränderungen in der Aktivität redoxsensitiver Transkriptionsfaktorsysteme und in der Expression atheroskleroserelevanter Adhäsionsmoleküle untersucht. Als Transkriptionsfaktoren wurden NF-kB und Nrf2 ausgewählt. Die Bindung von NF-kB an sein entsprechendes responsives Element in der DNA erfordert das Vorhandensein freier Thiole, wohingegen Nrf2 durch Thiolmodifikation von Keap1 freigesetzt wird und in den Kern transloziert. Eine erhöhte Aktivität der PHGPx resultierte in einer Erhöhung des Verhältnisses von GSH zu GSSG, andererseits aber in einer verminderten Markierbarkeit freier Proteinthiole. PHGPx-Überexpression reduzierte die IL-1-induzierte NF-kB-Aktivität, die sich in einer verminderten NF-kB-DNA-Bindefähigkeit und Transaktivierungsaktivität ausdrückte. Auch war die Proliferationsrate der Zellen vermindert. Die Expression des NF-kB-regulierten vaskulären Zelladhäsionsmoleküls, VCAM-1, war ebenfalls deutlich verringert. Umgekehrt war in PHGPx-überexprimierenden Zellen eine erhöhte Nrf2-Aktivität und Expression der Nrf2-abhängigen Hämoxygenase-1 zu verzeichnen. Letzte kann für die meisten der beobachteten Effekte verantwortlich gemacht werden. Die hier dargestellten Ergebnisse verdeutlichen, dass eine Modifizierung von Proteinthiolen als wichtige Determinante für die Regulation der Expression und Funktion von Glutathionperoxidasen angesehen werden kann. Entgegen früheren Vermutungen, welche oxidative Vorgänge generell mit pathologischen Veränderungen assoziierten, scheint ein moderater oxidativer Stress, bedingt durch eine transiente Thiolmodifikation, durchaus günstige Auswirkungen zu haben, da, wie hier dargelegt, verschiedene, miteinander interagierende, cytoprotektive Mechanismen ausgelöst werden. Hieran wird deutlich, dass sich "antioxidative Wirkung" oder "oxidativer Stress" keineswegs nur auf "gute" oder "schlechte" Vorgänge beschränken lassen, sondern im Zusammenhang mit den beeinflussten (patho)physiologischen Prozessen und dem Ausmaß der "Störung" des physiologischen Redoxgleichgewichtes betrachtet werden müssen.
Im Norddeutschen Tiefland wurde die Ausbreitung von Gefäßpflanzen durch Rehe, Dam- und Rothirsche sowie Wildschweine untersucht. Diese Tiere transportieren zahlreiche Pflanzenarten in teilweise erheblichen Mengen über größere Distanzen, sowohl durch den Kot nach Darmpassage (Endozoochorie) als auch durch Anheftung an Fell und Schalen (Epizoochorie). Besondere Bedeutung kommt dabei Wildschweinen zu, die potenziell fast alle Pflanzenarten ausbreiten können. Bevorzugt werden im Wald wie im Offenland vorkommende Pflanzen und Arten des Offenlands ausgebreitet, während Arten mit enger Waldbindung nur in geringem Maße transportiert werden. Zoochorie durch Schalenwild bietet Erklärungsansätze sowohl für Ausbreitungsphänomene wie auch für das weitgehend fehlende Ausbreitungspotenzial vieler Pflanzenarten. Der Einfluss des Schalenwilds auf die Artenzusammensetzung und Gefäßpflanzen-Diversität in der mitteleuropäischen Kulturlandschaft sollte in seine naturschutzfachliche Neubewertung miteinbezogen werden. Die Einschränkung von Aktionsradien der Tiere durch die Zerschneidung von Lebensräumen sowie die Wildfütterung können für Ausbreitungsprozesse bisher kaum beachtete Konsequenzen haben.
In dieser Arbeit wird ein Verfahren für robustes Parsing von uneingeschränktem natürlichsprachlichen Text mit gewichteten Transduktoren erarbeitet. Es werden zwei linguistische Theorien, das Chunking und das syntaktische Tagging, vorgestellt, die sich besonders für die praktische Anwendung mit Finite-State Maschinen eignen. Über die formalen Grundlagen, die es möglich machen, Finite-State Maschinen zu modellieren, werden existierende Ansätze vorgestellt, die diese linguistischen Theorien mit Finite-State Maschinen realisieren. Jedoch sind diese Ansätze in vieler Hinsicht problematisch. Es wird gezeigt, dass sich Probleme lösen lassen, indem Disambiguierungsstrategien durch Constraints realisiert werden, die als Gewicht bzw. Semiring vorliegen. Durch die Bestimmung des besten Pfades ist dann eine Disambiguierung möglich. Das Verfahren bewegt sich zwischen einem Low- und High-Level Parsing und behandelt flache Dependenzstrukturen. Für die Analyse wird eine rudimentäre Grammatik für das Deutsche entwickelt. Durch eine Implementierung wird letztlich der Ansatz getestet.
1 Einleitung 1.1 Motivation 1.2 Aufgabenstellung 1.3 Aufbau der Arbeit 2 Fachliches Umfeld 2.1 Grid Computing 2.2 Idle Time Computing 3 Ressourcenpartitionierung 3.1 Ressourcenpartitionierung und Scheduling 3.2 Ressourcenpartitionierung in Idle Time Computing 3.2.1 Administrative Kontrolle der Ressourcen 3.2.2 Mindestgarantien zur Sicherstellung der Lauffähigkeit 3.3 Vorhandene Lösungen und verwandte Arbeiten 3.3.3 Ressourcenmanagement im Globus Toolkit 3.3.4 Ressourcenmanagement in Condor 3.3.5 Das GARA Framework 3.3.6 Distributed Resource Management Application API 3.3.7 Grid Resource Allocation Agreement Protocol 3.3.8 SNAP 3.3.9 OGSI-Agreement 3.3.10 PBS/Maui und andere Batch Systeme 3.3.11 Wide Area Distributed Computing 3.3.12 Weitere verwandte Arbeiten 3.3.13 Überlegungen zum Ressourcenbedarf 4 Ressourcenkontrolle in Desktopbetriebssystemen 4.1 Ressourcen 4.2 Ressourcenpartitionierung unter Linux 4.2.14 Festplattenkapazität 4.2.15 Arbeitsspeicher 4.2.16 Netzwerkbandbreite 4.2.17 CPU Kapazität 4.3 Ressourcenpartitionierung unter Microsoft Windows XP 4.3.18 Festplattenkapazität 4.3.19 Arbeitsspeicher 4.3.20 Netzwerkbandbreite 4.3.21 CPU Kapazität 4.4 Fazit 5 Entwurf und Design des Frameworks 5.1 Entwurfsgrundlage - Komponentenarchitektur 5.2 Architektur 5.2.22 Broker Server 5.2.23 Broker Software auf den Clients 5.2.24 Schnittstellen 5.3 Komponententypmodell 5.4 Ressourcenidentifikation und Ressourcenzuordnung 5.5 Anbindung ans Grid 5.6 Datenbankentwurf 5.7 XML RPC Schnittstelle 6 Implementierung 6.1 Broker Server 6.1.25 Datenbank 6.1.26 Komponenten 6.1.27 Webserverskripte 6.1.28 Database Crawler 6.2 Komponenten 6.2.29 Network 6.2.30 DSCP 6.2.31 Quota 6.2.32 FSF 6.3 Linux Client 6.3.33 Broker Client 6.3.34 Komponenten 6.4 Windows Client 6.5 Abhängigkeiten 7 Evaluierung 7.1 Durchgeführte Test- und Anwendungsfälle 7.1.35 Test der Clientsoftware 7.1.36 Test der Serversoftware 7.1.37 Durchführbare Anwendungsfälle 7.2 Evaluierung der Frameworkimplementierung 7.2.38 Performanz der Serverimplementierung 7.2.39 Zuverlässigkeit der Partitionierungen 7.3 Evaluierung von Traffic Shaping mit iproute2 7.3.40 Szenario 1 7.3.41 Szenario 2 7.3.42 Szenario 3 7.3.43 Fazit 8 Zusammenfassung und Ausblick 8.1 Fazit 8.2 Weiterentwicklung 8.2.44 Weiterentwicklungen auf Entwurfsebene 8.2.45 Weiterentwicklungen auf Implementierungsebene Anhang A: Details zum Datenbankentwurf Anhang B: Bildschirmfotos der Weboberfläche Anhang C: Quellcode Linux Broker Client Anhang D: Inhalt des beiliegenden Datenträgers
In this thesis the magnetohydrodynamic jet formation and the effects of magnetic diffusion on the formation of axisymmetric protostellar jets have been investigated in three different simulation sets. The time-dependent numerical simulations have been performed, using the magnetohydrodynamic ZEUS-3D code.
Die Autorinnen wenden sich an WissenschaftlerInnen und PraktikerInnen, die an nachhaltiger Regionalenwicklung, an regionalen Ungleichheiten und insbesondere an ländlichen Räumen interessiert sind. In der Studie wird aktuelles statistisches Material zu Nachhaltigkeitsressourcen und -defiziten in den durch die Raumordnung definierten neun siedlungsstrukturellen Kreistypen Deutschlands aufbereitet. Im Zentrum der Analyse stehen vier ländliche Regionstypen, die sich nach ihren Entwicklungspotentialen und Problemlagen unterscheiden. Sie werden anhand verfügbarer Daten mit NUTS3- bzw. NUTS2-Gebieten der Europäischen Union verglichen. Es wird gezeigt, wie sich deutsche ländliche Gebiete im europäischen Rahmen positionieren. Die Analyseergebnisse werden durch Tabellen und Karten zur räumlichen Verteilung von Ressourcen veranschaulicht. Für die vier ländlichen Kreistypen in Deutschland werden Nachhaltigkeitsbilanzen zusammengefasst und mit europäischen ländlichen Raumtypen verglichen. Abschließend werden Überlegungen für raumspezifische Pfade der Regionalentwicklung für jeden analysierten ländlichen Kreistyp zur Diskussion gestellt. Die Autorinnen sind langjährige Mitarbeiterinnen der Forschungsgruppe "Umweltsoziologie" der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Potsdam.
Die Autorinnen wenden sich an WissenschaftlerInnen und PraktikerInnen, die an nachhaltiger Regionalenwicklung, an regionalen Ungleichheiten und insbesondere an ländlichen Räumen interessiert sind. In der Studie wird aktuelles statistisches Material zu Nachhaltigkeitsressourcen und -defiziten in den durch die Raumordnung definierten neun siedlungsstrukturellen Kreistypen Deutschlands aufbereitet. Im Zentrum der Analyse stehen vier ländliche Regionstypen, die sich nach ihren Entwicklungspotentialen und Problemlagen unterscheiden. Sie werden anhand verfügbarer Daten mit NUTS3- bzw. NUTS2-Gebieten der Europäischen Union verglichen. Es wird gezeigt, wie sich deutsche ländliche Gebiete im europäischen Rahmen positionieren. Die Analyseergebnisse werden durch Tabellen und Karten zur räumlichen Verteilung von Ressourcen veranschaulicht. Für die vier ländlichen Kreistypen in Deutschland werden Nachhaltigkeitsbilanzen zusammengefasst und mit europäischen ländlichen Raumtypen verglichen. Abschließend werden Überlegungen für raumspezifische Pfade der Regionalentwicklung für jeden analysierten ländlichen Kreistyp zur Diskussion gestellt. Die Autorinnen sind langjährige Mitarbeiterinnen der Forschungsgruppe "Umweltsoziologie" der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Potsdam.
Inhalt 1 Ausgangslage 2 Regional- und industriepolitische Maßnahmen 2.1 Begriffliche Vorbemerkungen 2.2 Wichtige Maßnahmenbereiche 2.3 Brutto- und Nettotransfers 3 Auswirkungen 4 Regional- und industriepolitische Reformalternativen 4.1 Fortführung der Solidarpakts 4.2 Sonderwirtschaftszone Ost 4.3 Förderung der Infrastruktur 5 Fazit
Gegenstand ist die Regierungsorganisation in fünf westeuropäischen Ländern, die seit den frühen 1990er Jahren durch Europäisierung, Globalisierung und die Krise des Wohlfahrtsstaates unter erhöhtem Anpassungsdruck stehen. Während sich das politikwissenschaftliche Interesse meist auf den allgemeinen Wandel der "Staatlichkeit" oder die konkreten Veränderungen von Politikinhalten konzentriert, wird hier in vergleichender Perspektive nach dem Wandel von politischen Strukturen und Prozessen der Regierungsorganisation, insbesondere der Ministerialverwaltung, gefragt. Ausgangshypothese ist, dass die westeuropäischen Regierungssysteme auf die externen Herausforderungen mit Änderungen ihrer "Produktionsstruktur" von Gesetzen und Programmen reagiert haben. Daraus ergeben sich folgende Kernfragen: Welche Veränderungen der Regierungsorganisationen sind zu identifizieren? Handelt es sich dabei um Ergebnisse einer reflexiven Institutionenpolitik? Ändert sich die strategische Handlungsfähigkeit der Regierungsorganisation? Ersten empirischen Beobachtungen folgend lässt sich ein Wandel auf drei Dimensionen vermuten: dem wachsenden horizontalen regierungsinternen Koordinationsbedarf, der vertikalen Reorganisation und Funktionsveränderung zentralstaatlicher Exekutiven sowie Veränderungen der Beziehungen mit externen Akteuren bspw. organisierten Interessen, Politikberatern und Konsensbildungskommissionen. Neben der Bundesrepublik, Großbritannien und Frankreich sollen die beiden skandinavischen Länder Dänemark und Schweden in die Untersuchung einbezogen werden.
Post-translational redox-regulation is a well-known mechanism to regulate enzymes of the Calvin cycle, oxidative pentose phosphate cycle, NADPH export and ATP synthesis in response to light. The aim of the present thesis was to investigate whether a similar mechanism is also regulating carbon storage in leaves. Previous studies have shown that the key-regulatory enzyme of starch synthesis, ADPglucose pyrophosphorylase (AGPase) is inactivated by formation of an intermolecular disulfide bridge between the two catalytic subunits (AGPB) of the heterotetrameric holoenzyme in potato tubers, but the relevance of this mechanism to regulate starch synthesis in leaves was not investigated. The work presented in this thesis shows that AGPase is subject to post-translational redox-regulation in leaves of pea, potato and Arabidopsis in response to day night changes. Light was shown to trigger posttranslational redox-regulation of AGPase. AGPB was rapidly converted from a dimer to a monomer when isolated pea chloroplasts were illuminated and from a monomer to a dimer when preilluminated leaves were darkened. Conversion of AGPB from dimer to monomer was accompanied by an increase in activity due to changes in the kinetik properties of the enzyme. Studies with pea chloroplast extracts showed that AGPase redox-activation is mediated by thioredoxins f and m from spinach in-vitro. In a further set of experiments it was shown that sugars provide a second input leading to AGPase redox activation and increased starch synthesis and that they can act as a signal which is independent from light. External feeding of sugars such as sucrose or trehalose to Arabidopsis leaves in the dark led to conversion of AGPB from dimer to monomer and to an increase in the rate of starch synthesis, while there were no significant changes in the level of 3PGA, an allosteric activator of the enyzme, and in the NADPH/NADP+ ratio. Experiments with transgenic Arabidopsis plants with altered levels of trehalose 6-phosphate (T6P), the precursor of trehalose synthesis, provided genetic evidence that T6P rather than trehalose is leading to AGPase redox-activation. Compared to Wt, leaves expressing E.coli trehalose-phosphate synthase (TPS) in the cytosol showed increased activation of AGPase and higher starch level during the day, while trehalose-phosphate phosphatase (TPP) overexpressing leaves showed the opposite. These changes occurred independently of changes in sugar and sugar-phosphate levels and NADPH/NADP+ ratio. External supply of sucrose to Wt and TPS-overexpressing leaves led to monomerisation of AGPB, while this response was attenuated in TPP expressing leaves, indicating that T6P is involved in the sucrose-dependent redox-activation of AGPase. To provide biochemical evidence that T6P promotes redox-activation of AGPase independently of cytosolic elements, T6P was fed to intact isolated chloroplasts for 15 min. incubation with concentrations down to 100 µM of T6P, but not with sucrose 6-phosphate, sucrose, trehalose or Pi as controls, significantly and specifically increased AGPB monomerisation and AGPase activity within 15 minutes, implying T6P as a signal reporting the cytosolic sugar status to the chloroplast. The response to T6P did not involve changes in the NADPH/NADP+ ratio consistent with T6P modulating redox-transfer to AGPase independently of changes in plastidial redox-state. Acetyl-CoA carboxylase (ACCase) is known as key-regulatory enzyme of fatty acid and lipid synthesis in plants. At the start of the present thesis there was mainly in vitro evidence in the literature showing redox-regulation of ACCase by DTT, and thioredoxins f and m. In the present thesis the in-vivo relevance of this mechanism to regulate lipid synthesis in leaves was investigated. ACCase activity measurement in leaf tissue collected at the end of the day and night in Arabidopsis leaves revealed a 3-fold higher activation state of the enzyme in the light than in the dark. Redox-activation was accompanied by change in kinetic properties of ACCase, leading to an increase affinity to its substrate acetyl-CoA . In further experiments, DTT as well as sucrose were fed to leaves, and both treatments led to a stimulation in the rate of lipid synthesis accompanied by redox-activation of ACCase and decrease in acetyl-CoA content. In a final approach, comparison of metabolic and transcript profiling after DTT feeding and after sucrose feeding to leaves provided evidence that redox-modification is an important regulatory mechanism in central metabolic pathways such as TCA cycle and amino acid synthesis, which acts independently of transcript levels.
Die „Poetica“ Tommaso Campanellas ist Ausdruck einer starken Rationalisierung und didaktischer Instrumentalisierung der Dichtung. Diese Rationalisierung kann als Reaktion auf die Inspirationstheorien von Marsilio Ficino und Pietro Pomponazzi erklärt werden, die beide (mit je ganz unterschiedlichen Begründungen) den poetischen Enthusiasmus neben die Offenbarungen des Propheten gestellt und damit den ausschließlichen Offenbarungsanspruch der Prophetie herausgefordert hatten.
The Thesis is focused on the properties of self-organized nanostructures. Atomic and electronic properties of different systems have been investigated using methods of electron diffraction, scanning tunneling microscopy and photoelectron spectroscopy. Implementation of the STM technique (including design, construction, and tuning of the UHV experimental set-up) has been done in the framework of present work. This time-consuming work is reported to greater detail in the experimental part of this Thesis. The scientific part starts from the study of quantum-size effects in the electronic structure of a two-dimensional Ag film on the supporting substrate Ni(111). Distinct quantum well states in the sp-band of Ag were observed in photoelectron spectra. Analysis of thickness- and angle-dependent photoemission supplies novel information on the properties of the interface. For the first time the Ni(111) relative band gap was indirectly probed in the ground-state through the electronic structure of quantum well states in the adlayer. This is particularly important for Ni where valence electrons are strongly correlated. Comparison of the experiment with calculations performed in the formalism of the extended phase accumulation model gives the substrate gap which is fully consistent with the one obtained by ab-initio LDA calculations. It is, however, in controversy to the band structure of Ni measured directly by photoemission. These results lend credit to the simplest view of photoemission from Ni, assigning early observed contradictions between theory and experiments to electron correlation effects in the final state of photoemission. Further, nanosystems of lower dimensionality have been studied. Stepped surfaces W(331) and W(551) were used as one-dimensional model systems and as templates for self-organization of Au nanoclusters. Photon energy dependent photoemission revealed a surface resonance which was never observed before on W(110) which is the base plane of the terrace microsurfaces. The dispersion E(k) of this state measured on stepped W(331) and W(551) with angle-resolved photoelectron spectroscopy is modified by a strong umklapp effect. It appears as two parabolas shifted symmetrically relative to the microsurface normal by half of the Brillouin zone of the step superlattice. The reported results are very important for understanding of the electronic properties of low-dimensional nanostructures. It was also established that W(331) and W(551) can serve as templates for self-organization of metallic nanostructures. A combined study of electronic and atomic properties of sub-monolayer amounts of gold deposited on these templates have shown that if the substrate is slightly pre-oxidized and the temperature is elevated, then Au can alloy with the first monolayer of W. As a result, a nanostructure of uniform clusters of a surface alloy is produced all over the steps. Such clusters feature a novel sp-band in the vicinity of the Fermi level, which appears split into constant energy levels due to effects of lateral quantization. The last and main part of this work is devoted to large-scale reconstructions on surfaces and nanostructures self-assembled on top. The two-dimensional surface carbide W(110)/C-R(15x3) has been extensively investigated. Photoemission studies of quantum size effects in the electronic structure of this reconstruction, combined with an investigation of its surface geometry, lead to an advanced structural model of the carbide overlayer. It was discovered that W(110)/C-R(15x3) can control self-organization of adlayers into nanostructures with extremely different electronic and structural properties. Thus, it was established that at elevated temperature the R(15x3) superstructure controls the self-assembly of sub-monolayer amounts of Au into nm-wide nanostripes. Based on the results of core level photoemission, the R(15x3)-induced surface alloying which takes place between Au and W can be claimed as driving force of self-organization. The observed stripes exhibit a characteristic one-dimensional electronic structure with laterally quantized d-bands. Obviously, these are very important for applications, since dimensions of electronic devices have already stepped into the nm-range, where quantum-size phenomena must undoubtedly be considered. Moreover, formation of perfectly uniform molecular clusters of C60 was demonstrated and described in terms of the van der Waals formalism. It is the first experimental observation of two-dimensional fullerene nanoclusters with "magic numbers". Calculations of the cluster potentials using the static approach have revealed characteristic minima in the interaction energy. They are achieved for 4 and 7 molecules per cluster. The obtained "magic numbers" and the corresponding cluster structures are fully consistent with the results of the STM measurements.
One of the most difficult issues when dealing with optical water remote-sensing is its acceptance as a useful application for environmental research. This problem is, on the one hand, concerned with the optical complexity and variability of the investigated natural media, and therefore the question arises as to the plausibility of the parameters derived from remote-sensing techniques. Detailed knowledge about the regional bio- and chemico-optical properties is required for such studies, however such information is seldom available for the sites of interest. On the other hand, the primary advantage of remote-sensing information, which is the provision of a spatial overview, may not be exploited fully by the disciplines that would benefit most from such information. It is often seen in a variety of disciplines that scientists have been primarily trained to look at discrete data sets, and therefore have no experience of incorporating information dealing with spatial heterogeneity. In this thesis, the opportunity was made available to assess the potential of Ocean Colour data to provide spatial and seasonal information about the surface waters of Lake Baikal (Siberia). While discrete limnological field data is available, the spatial extension of Lake Baikal is enormous (ca. 600 km), while the field data are limited to selected sites and expedition time windows. Therefore, this remote-sensing investigation aimed to support a multi-disciplinary limnological investigation within the framework of the paleoclimate EU-project ‘High Resolution CONTINENTal Paleoclimate Record in Lake Baikal, Siberia (CONTINENT)’ using spatial and seasonal information from the SeaWiFS satellite (NASA). From this, the SeaWiFS study evolved to become the first efficient bio-optical satellite study of Lake Baikal. During the course of three years, field work including spectral field measurements and water sampling, was carried out at Lake Baikal in Southern Siberia, and at the Mecklenburg and Brandenburg lake districts in Germany. The first step in processing the SeaWiFS satellite data involved adapting the SeaDAS (NASA) atmospheric-correction processing to match as close as possible the specific conditions of Lake Baikal. Next, various Chl-a algorithms were tested on the atmospherically-corrected optimized SeaWiFS data set (years 2001 to 2002), comparing the CONTINENT pigment ground-truth data with the Chl-a concentrations derived from the satellite data. This showed the high performance of the global Chl-a products OC2 and OC4 for the oligotrophic, transparent waters (bio-optical Case 1) of Lake Baikal. However, considerable Chl-a overestimation prevailed in bio-optical Case 2 areas for the case of discharge events. High-organic terrigenous input into Lake Baikal could be traced and information extracted using the SeaWiFS spectral data. Suspended Particulate Matter (SPM) was quantified by the regression of the SeaDAS attenuation coefficient as the optical parameter with SPM field data. Finally, the Chl-a and terrigenous input maps derived from the remote sensing data were used to assist with analyzing the relationships between the various discrete data obtained during the CONTINENT field work. Hence, plausible spatial and seasonal information describing autochthonous and allochthonous material in Lake Baikal could be provided by satellite data.Lake Baikal, with its bio-optical complexity and its different areas of Case 1 and Case 2 waters, is a very interesting case study for Ocean Colour analyses. Proposals for future Ocean Colour studies of Lake Baikal are discussed, including which bio-optical parameters for analytical models still need to be clarified by field investigations.
Public pensions in the U.S.
(2005)
Contents: The Public Old Age Insurance of the U.S. -Historical overview -Technical details -Individual equity and social adequacy The Economic Problem of Old Age -Risks and economic security -Old age, retirement, and idividual precaution -Insurance markets, market failures, and social insurance -Options for public pension systems The Problems of Social Security -The financial balance of OASDI -Causes of the long-run problems -Rates of return -Conclusion - The case for Social Security reform Proposed Remedies -Full, partial, or no privatization? -The President's Commission to Strengthen Social Security -Kotlikoff's Personal Security System -The Diamond-Orszag Three-Part plan
Das Superoxidradikal kann mit fast allen Bestandteilen von Zellen reagieren und diese schädigen. Die medizinische Forschung stellte eine Beteiligung des Radikals an Krebs, Herzinfarkten und neuraler Degeneration fest. Ein empfindlicher Superoxidnachweis ist daher zum besseren Verständnis von Krankheitsverläufen wichtig. Dabei stellen die geringen typischen Konzentrationen und seine kurze Lebensdauer große Anforderungen. Ziel dieser Arbeit war es zum einen, zwei neuartige Proteinarchitekturen auf Metallelektroden zu entwickeln und deren elektrochemisches Ansprechverhalten zu charakterisieren. Zum anderen waren diese Elektroden zur empfindlichen quantitativen Superoxiddetektion einzusetzen. Im ersten Teil der Arbeit wurde eine Protein-Multischichtelektrode aus Cytochrom c und dem Polyelektrolyten Poly(anilinsulfonsäure) nach dem Layer-by-layer-Verfahren aufgebaut. Für zwei bis 15 Schichten an Protein wurde eine deutliche Zunahme an elektrodenaktivem Cytochrom c mit jedem zusätzlichen Aufbringungsschritt nachgewiesen. Die Zunahme verlief linear und ergab bei 15 Schichten eine Zunahme der redoxaktiven Proteinmenge um deutlich mehr als eine Größenordnung. Während das formale Potential im Multischichtsystem sich im Vergleich zur Monoschichtelektrode nicht veränderte, wurde für die Kinetik eine Abhängigkeit der Geschwindigkeit des Elektronentransfers von der Zahl der Proteinschichten beobachtet. Mit zunehmender Scangeschwindigkeit trat ein reversibler Kontaktverlust zu den äußeren Schichten auf. Die lineare Zunahme an elektroaktivem Protein mit steigender Zahl an Depositionsschritten unterscheidet sich deutlich von in der Literatur beschriebenen Protein/Polyelektrolyt-Multischichtelektroden, bei denen ab etwa 6-8 Schichten keine Zunahme an elektroaktivem Protein mehr festgestelltwurde. Auch ist bei diesen die Zunahme an kontaktierbaren Proteinmolekülen auf das Zwei- bis Fünffache limitiert. Diese Unterschiede des neu vorgestellten Systems zu bisherigen Multischichtassemblaten erklärt sich aus einem in dieser Arbeit für derartige Systeme erstmals beschriebenen Elektronentransfermechanismus. Der Transport von Elektronen zwischen der Elektrodenoberfläche und den Proteinmolekülen in den Schichten verläuft über einen Protein-Protein-Elektronenaustausch. Dieser Mechanismus beruht auf dem schnellen Selbstaustausch von Cytochrom c-Molekülen und einer verbleibenden Rotationsflexibilität des Proteins im Multischichtsystem. Die Reduzierung des Proteins durch das Superoxidradikal und eine anschließende Reoxidation durch die Elektrode konnten nachgewiesen werden. In einem amperometrischen Messansatz wurde das durch Superoxidradikale hervorgerufene elektrochemische Signal in Abhängigkeit von der Zahl an Proteinschichten gemessen. Ein maximales Ansprechverhalten auf das Radikal wurde mit 6-Schichtelektroden erzielt. Die Empfindlichkeit der 6-Schichtelektroden wurde im Vergleich zum Literaturwert der Monoschichtelektrode um Faktor 14, also mehr als eine Größenordnung, verbessert. Somit konnte eine Elektrode mit 6 Schichten aus Cytochrom c und Poly(anilinsulfonsäure) als neuartiger Superoxidsensor mit einer 14-fachen Verbesserung der Empfindlichkeit im Vergleich zum bislang benutzten System entwickelt werden. Der zweite Teil dieser Arbeit beschreibt die Auswahl, Gewinnung und Charakterisierung von Mutanten des Proteins Cu,Zn-Superoxiddismutase zur elektrochemischen Quantifizierung von Superoxidradikalen. Monomere Mutanten des humanen dimeren Enzyms wurden entworfen, die durch Austausch von Aminosäuren ein oder zwei zusätzliche Cysteinreste besaßen, mit welchem sie direkt auf der Goldelektrodenoberfläche chemisorbieren sollten. 6 derartige Mutanten konnten in ausreichender Menge und Reinheit in aktiver Form gewonnen werden. Die Bindung der Superoxiddismutase-Mutanten an Goldoberflächen konnte durch Oberflächen-plasmonresonanz und Impedanzspektroskopie nachgewiesen werden. Alle Mutanten wiesen einen quasi-reversiblen Elektronentransfer zwischen SOD und Elektrode auf. Durch Untersuchung von kupferfreien SOD-Mutanten sowie des Wildtyps konnte nachgewiesen werden, das die Mutanten über die eingefügten Cysteinreste auf der Elektrode chemisorptiv gebunden wurden und der Elektronentransfer zwischen der Elektrode und dem Kupfer im aktiven Zentrum der SOD erfolgte. Die Superoxiddismutase katalysiert die Zersetzung von Superoxidmolekülen durch Oxidation und durch Reduktion der Radikale. Somit sind beide Teilreaktionen von analytischem Interesse. Zyklovoltammetrisch konnte sowohl die Oxidation als auch die Reduktion des Radikals durch die immobilisierten Superoxiddismutase-Mutanten nachgewiesen werden. In amperometrischen Messanordnungen konnten beide Teilreaktionen zur analytischen Quantifizierung von Superoxidradikalen genutzt werden. Im positiven Potentialfenster wurde die Empfindlichkeit um einen Faktor von etwa 10 gegenüber der Cytochrom c–Monoschichtelektrode verbessert.
At present, carbon sequestration in terrestrial ecosystems slows the growth rate of atmospheric CO2 concentrations, and thereby reduces the impact of anthropogenic fossil fuel emissions on the climate system. Changes in climate and land use affect terrestrial biosphere structure and functioning at present, and will likely impact on the terrestrial carbon balance during the coming decades - potentially providing a positive feedback to the climate system due to soil carbon releases under a warmer climate. Quantifying changes, and the associated uncertainties, in regional terrestrial carbon budgets resulting from these effects is relevant for the scientific understanding of the Earth system and for long-term climate mitigation strategies. A model describing the relevant processes that govern the terrestrial carbon cycle is a necessary tool to project regional carbon budgets into the future. This study (1) provides an extensive evaluation of the parameter-based uncertainty in model results of a leading terrestrial biosphere model, the Lund-Potsdam-Jena Dynamic Global Vegetation Model (LPJ-DGVM), against a range of observations and under climate change, thereby complementing existing studies on other aspects of model uncertainty; (2) evaluates different hypotheses to explain the age-related decline in forest growth, both from theoretical and experimental evidence, and introduces the most promising hypothesis into the model; (3) demonstrates how forest statistics can be successfully integrated with process-based modelling to provide long-term constraints on regional-scale forest carbon budget estimates for a European forest case-study; and (4) elucidates the combined effects of land-use and climate changes on the present-day and future terrestrial carbon balance over Europe for four illustrative scenarios - implemented by four general circulation models - using a comprehensive description of different land-use types within the framework of LPJ-DGVM. This study presents a way to assess and reduce uncertainty in process-based terrestrial carbon estimates on a regional scale. The results of this study demonstrate that simulated present-day land-atmosphere carbon fluxes are relatively well constrained, despite considerable uncertainty in modelled net primary production. Process-based terrestrial modelling and forest statistics are successfully combined to improve model-based estimates of vegetation carbon stocks and their change over time. Application of the advanced model for 77 European provinces shows that model-based estimates of biomass development with stand age compare favourably with forest inventory-based estimates for different tree species. Driven by historic changes in climate, atmospheric CO2 concentration, forest area and wood demand between 1948 and 2000, the model predicts European-scale, present-day age structure of forests, ratio of biomass removals to increment, and vegetation carbon sequestration rates that are consistent with inventory-based estimates. Alternative scenarios of climate and land-use change in the 21<sup>st century suggest carbon sequestration in the European terrestrial biosphere during the coming decades will likely be on magnitudes relevant to climate mitigation strategies. However, the uptake rates are small in comparison to the European emissions from fossil fuel combustion, and will likely decline towards the end of the century. Uncertainty in climate change projections is a key driver for uncertainty in simulated land-atmosphere carbon fluxes and needs to be accounted for in mitigation studies of the terrestrial biosphere.
Strong damped Lyman alpha absorption (DLA) lines seen spectra of distant quasar are believed to arise when the sight line to the quasar goes trough the disc of a galaxy or a proto galaxy. Most of the neutral matter in the universe is contained in these clouds of neutral hydrogen that cause the absorption lines. Hence these DLAs are reservoirs for the formation of stars and galaxies throughout the universe. Despite intensive efforts over more than two decades only few galaxies responsible for the DLAs have been found. The problem is that the galaxies that harbour the neutral clouds are not necessarily bright, and selecting galaxies based on absorption lines could well select different types of galaxies than found in large surveys. If we are to understand how galaxies form out of neutral gas clouds it is essential to locate the galaxies in which DLAs reside. This thesis explores the use of integral field spectroscopy (IFS) to observe quasars known to have strong absorption lines in their spectra. IFS allows us to obtain a spectrum at many spatial points close to the quasar, thus providing images and spectroscopy simultaneously. From the imaging part, we can directly identify objects, and from the spectroscopy we can calculate the distances to the objects. When the distance of the object found in emission matches the distance to the object that cause the DLA line, we have identified the absorbing galaxy. Using this technique, we have showed that we can successfully recover a few DLA galaxies known previously from the literature. In a survey aimed to increase the number of DLA galaxies we have identified eight new candidate DLA galaxies. The projected distances from the candidates to the quasar sight lines indicate that the DLA galaxies have sizes similar to local disc galaxies. Hence our results suggest that large discs may be present when the universe was just 2 billion years old. We furthermore find no differences between the sizes of the very distant DLA galaxies and those that are not so distant. The large sizes imply that their neutral hydrogen masses are also similar to those in local galaxies, but we argue that the DLA galaxies are not necessarily as luminous as the present day disc galaxies. Taking advantage of the three-dimensional view provided by the IFS data, the second part of this thesis investigates extended emission line regions arising in the quasar neighborhood. We find that extended emission line nebulae are common around quasars, and explore the effects that may be the cause. Some quasars are known to be powerful radio emitters while others are not detected at radio wavelengths. We find that significantly larger and brighter emission line nebulae are found around the quasars which have the brightest radio emission, and in particular those that have large radio jets. The existence of the nebulae can be interpreted as an interaction of the radio jet with the surrounding medium, but we can not rule out a scenario where there are density or temperature differences in the surrounding environment. Only for the brightest object, where additional velocity information can be derived from the IFS data, can we argue for an interaction. In conclusion the use of IFS to search for faint emission lines, both from point sources and extended nebulae provides exciting new results within the scientific areas studied here.
Textbook wisdom says that competition yields lower prices and higher consumer surplus than monopoly. We show in two versions of a simple location-product differentiation model with and without endogenous choice of products that these two results have to be qualified. In both models, more than half of the reasonable parameter values lead to higher prices with duopoly than with monopoly. If the product characteristics are exogenous to the firms, consumers may even be be better off with monopoly in average.