Refine
Has Fulltext
- yes (33) (remove)
Year of publication
- 2002 (33) (remove)
Document Type
- Doctoral Thesis (33) (remove)
Is part of the Bibliography
- yes (33)
Keywords
- Anden (2)
- Andes (2)
- 'Peer To Peer' (1)
- 1-Hydroxymethylpyren (1)
- 1-hydroxymethylpyrene (1)
- Adipozyt (1)
- Aggression (1)
- Anden / Störung <Geologie> / Strukturgeologie / Magnetotellurik / Chile <Nord> (1)
- Anti-Diuron-Antikörper (1)
- Arylcarbamate (1)
Institute
- Institut für Biochemie und Biologie (7)
- Institut für Physik und Astronomie (6)
- Institut für Ernährungswissenschaft (4)
- Institut für Geowissenschaften (4)
- Institut für Umweltwissenschaften und Geographie (4)
- Department Psychologie (2)
- Department Sport- und Gesundheitswissenschaften (2)
- Institut für Informatik und Computational Science (2)
- Institut für Chemie (1)
- Öffentliches Recht (1)
Die Pektat-Lyasen gehören zu einer Proteinfamilie, die meistens von pflanzenpathogenen Mikroorganismen sekretiert werden. Die Enzyme katalysieren den Abbau von Polygalakturonsäure, einem Hauptbestandteil in pflanzlichen Mittellamellen und Primärzellwänden. Der Abbau der alpha-1,4-verbrückten Galakturonsäurereste erfogt durch eine beta-Eliminierungsreaktion, dabei entsteht ein Produkt mit einer ungesättigten C4-C5 Bindung am nicht reduzierenden Ende, das durch spektroskopische Messungen beobachtet werden kann. Für die enzymatische Reaktion der Pektat-Lyasen ist Calcium nötig und das pH-Optimum der Reaktion liegt bei pH 8.5. Alle bis jetzt bekannten Strukturen der Pektat- und Pektin-Lyasen haben das gleiche Strukturmotiv - eine rechtsgängige parallele beta-Helix. Die Struktur der Pektat-Lyase aus Bacillus subtilis (BsPel) ist im Komplex mit Calcium gelöst worden. BsPel ist ein monomeres Protein mit einer ungefähren Molekularmasse von 43 kDa, das keine Disulfidbrücken enthält. Dies erlaubte sowohl eine effiziente rekombinante Expression des Wildtypproteins, als auch von destabilisierten Mutanten im Cytoplasma von E. coli. Parallele beta-Helices sind relativ große, jedoch verhältnismäßig einfach aufgebaute Proteine. Um detailliertere Informationen über die kritischen Schritte bei der in vitro-Faltung von parallelen beta-Helices zu erhalten, sollte in der vorliegenden Arbeit versucht werden, den Faltungsmechanismus dieses Proteins näher zu charakterisieren. Dabei sollte vor allem die Frage geklärt werden, welche Wechselwirkungen für die Stabilität dieses Proteins einerseits und für die Stabilität von essentiellen Faltungsintermediaten andererseits besonders wichtig sind.<BR>Rückfaltung von BsPel, ausgehend vom guanidiniumchlorid-denaturierten Zustand, war bei kleinen Proteinkonzentrationen und niedrigen Temperaturen vollständig möglich. GdmCl-induzierte Faltungsübergänge waren aber nicht reversibel und zeigten eine apparente Hysterese. Kinetische Messungen des Fluoreszenz- und CD-Signals im fernen UV ergaben eine extreme Denaturierungsmittelabhängigkeit der Rückfaltungsrate im Bereich des Übergangmittelpunktes. Der extreme Abfall der Rückfaltungsraten mit steigender Denaturierungsmittelkonzentration kann als kooperative Entfaltung eines essentiellen Faltungsintermediats verstanden werden. Dieses Faltungsintermediat ist temperaturlabil und kann durch den Zusatz Glycerin im Renaturierungspuffer stabilisiert werden, wobei sich die Hysterese verringert, jedoch nicht vollständig aufgehoben wird. Durch reverse Doppelsprungexperimente konnten zwei transiente Faltungsintermediate nachgewiesen werden, die auf zwei parallelen Faltungswegen liegen und beide zum nativen Zustand weiterreagieren können. Fluoreszenzemissionsspektren der beiden Intermediate zeigten, daß beide schon nativähnliche Struktur aufweisen. Kinetische Daten von Prolin-Doppelsprungexperimenten zeigten, daß Prolinisomerisierung den geschwindigkeitsbestimmenden Schritt in der Reaktivierung des denaturierten Enzyms darstellt. Desweiteren konnte durch Prolin-Doppelsprungexperimenten an Mutanten mit Substitutionen im Prolinrest 281 gezeigt werden, daß die langsame Renaturierung von BsPel nicht durch die Isomerisierung der einzigen cis-Peptidbindung an Prolin 281 verursacht wird, sondern durch die Isomerisierung mehrerer trans-Proline. Die beiden beobachteten transienten Faltungsintermediate sind somit wahrscheinlich zwei Populationen von Faltungsintermediaten mit nicht-nativen X-Pro-Peptidbindungen, wobei sich die Populationen durch mindestens eine nicht-native X-Pro-Peptidbindung unterscheiden.<BR>Der Austausch des Prolinrestes 281 gegen verschiedene Aminosäuren (Ala, Ile, Leu, Phe, Gly) führte zu einer starken Destabilisierung des nativen Proteins und daneben auch zu einer Reduktion in der Aktivität, da die Mutationsstelle in der Nähe der putativen Substratbindetasche liegt. Die Rückfaltungskinetiken der Prolinmutanten war bei 10°C annähernd gleich zum Wildtyp und die geschwindigkeitsbestimmenden Schritte der Faltung waren durch die Mutation nicht verändert. Die durch die Mutation verursachte drastische Destabilisierung des nativen Zustands führte zu einem reversiblen Entfaltungsgleichgewicht bei pH 7 und 10°C. GdmCl-induzierte Faltungsübergänge der Mutante P281A zeigten bei Messungen der Tryptophanfluoreszenzemission und der Aktivität einen kooperativen Phasenübergang mit einem Übergangsmittelpunkt bei 1.1 M GdmCl. Durch die Übereinstimmung der Faltungsübergänge bei beiden Messparametern konnten die Faltungsübergänge nach dem Zwei-Zustandsmodell ausgewertet werden. Dabei wurde eine freie Sabilisierungsenthalpie der Faltung für die Mutante von <nobr>- 64.2 ± 0.4 kJ/mol</nobr> und eine Kooperativität des Übergangs von <nobr>- 58.2 ± 0.3 kJ/(mol·M)</nobr> bestimmt.<BR> BsPel enthält, wie die meisten monomeren rechtsgängigen parallelen beta-Helix-Proteine, einen internen Stapel wasserstoffverbrückter Asparagin-Seitenketten. Die Mehrheit der erzeugten Mutanten mit Substitutionen im Zentrum der Asn-Leiter (N271X) waren als enzymatisch aktives Protein zugänglich. Die Auswirkung der Mutation auf die Stabilität und Rückfaltung wurde an den Proteinen BsPel-N271T und BsPel-N271A näher analysiert. Dabei führte die Unterbrechung des Asparaginstapels im Inneren der beta-Helix zu keiner drastischen Destabilisierung des nativen Proteins. Allerdings führten diese Mutationen zu einem temperatur-sensitiven Faltungsphänotyp und die Hysterese im Denaturierungsübergang wurde verstärkt. Offenbar wird durch die Unterbrechung des Asparaginstapel ein essentielles, thermolabiles Faltungsintermediat destabilisiert. Der Asparaginstapel wird somit bei der Faltung sehr früh ausgebildet und ist wahrscheinlich schon im Übergangszustand vorhanden.
Value education of youth
(2002)
The value priorities of students and teachers were measured at eight different schools at the beginning and the end of the school year 2000/2001. This study once again confirmed the theoretical model of a universal structure of human values (Schwartz, 1992). At both measurement times, similar gender differences, as well as positive correlations between religiosity and school commitment were found. The students from the non-religious schools determined Hedonism as their highest, and Tradition as their lowest value priority. In the religious schools, Benevolence and Self-Direction were the highest values, whereas Power was found to be the lowest value priority. The change of the values Conformity, Hedonism, and Universalism was predicted both through the students′ religiosity and their type of school. The change of the values Power, Tradition, Benevolence, and Achievement, however, was mainly predicted through their religiosity. In three out of four schools the student-teacher similarity correlated positively with the school commitment of the students. Across all schools student-teacher similarity correlated positively with academic achievement.
In recent years, there has been a dramatic increase in available compute capacities. However, these “Grid resources” are rarely accessible in a continuous stream, but rather appear scattered across various machine types, platforms and operating systems, which are coupled by networks of fluctuating bandwidth. It becomes increasingly difficult for scientists to exploit available resources for their applications. We believe that intelligent, self-governing applications should be able to select resources in a dynamic and heterogeneous environment: Migrating applications determine a resource when old capacities are used up. Spawning simulations launch algorithms on external machines to speed up the main execution. Applications are restarted as soon as a failure is detected. All these actions can be taken without human interaction. A distributed compute environment possesses an intrinsic unreliability. Any application that interacts with such an environment must be able to cope with its failing components: deteriorating networks, crashing machines, failing software. We construct a reliable service infrastructure by endowing a service environment with a peer-to-peer topology. This “Grid Peer Services” infrastructure accommodates high-level services like migration and spawning, as well as fundamental services for application launching, file transfer and resource selection. It utilizes existing Grid technology wherever possible to accomplish its tasks. An Application Information Server acts as a generic information registry to all participants in a service environment. The service environment that we developed, allows applications e.g. to send a relocation requests to a migration server. The server selects a new computer based on the transmitted resource requirements. It transfers the application's checkpoint and binary to the new host and resumes the simulation. Although the Grid's underlying resource substrate is not continuous, we achieve persistent computations on Grids by relocating the application. We show with our real-world examples that a traditional genome analysis program can be easily modified to perform self-determined migrations in this service environment.
In order to face the rapidly increasing need for computational resources of various scientific and engineering applications one has to think of new ways to make more efficient use of the worlds current computational resources. In this respect, the growing speed of wide area networks made a new kind of distributed computing possible: Metacomputing or (distributed) Grid computing. This is a rather new and uncharted field in computational science. The rapidly increasing speed of networks even outperforms the average increase of processor speed: Processor speeds double on average each 18 month whereas network bandwidths double every 9 months. Due to this development of local and wide area networks Grid computing will certainly play a key role in the future of parallel computing. This type of distributed computing, however, distinguishes from the traditional parallel computing in many ways since it has to deal with many problems not occurring in classical parallel computing. Those problems are for example heterogeneity, authentication and slow networks to mention only a few. Some of those problems, e.g. the allocation of distributed resources along with the providing of information about these resources to the application have been already attacked by the Globus software. Unfortunately, as far as we know, hardly any application or middle-ware software takes advantage of this information, since most parallelizing algorithms for finite differencing codes are implicitly designed for single supercomputer or cluster execution. We show that although it is possible to apply classical parallelizing algorithms in a Grid environment, in most cases the observed efficiency of the executed code is very poor. In this work we are closing this gap. In our thesis, we will - show that an execution of classical parallel codes in Grid environments is possible but very slow - analyze this situation of bad performance, nail down bottlenecks in communication, remove unnecessary overhead and other reasons for low performance - develop new and advanced algorithms for parallelisation that are aware of a Grid environment in order to generelize the traditional parallelization schemes - implement and test these new methods, replace and compare with the classical ones - introduce dynamic strategies that automatically adapt the running code to the nature of the underlying Grid environment. The higher the performance one can achieve for a single application by manual tuning for a Grid environment, the lower the chance that those changes are widely applicable to other programs. In our analysis as well as in our implementation we tried to keep the balance between high performance and generality. None of our changes directly affect code on the application level which makes our algorithms applicable to a whole class of real world applications. The implementation of our work is done within the Cactus framework using the Globus toolkit, since we think that these are the most reliable and advanced programming frameworks for supporting computations in Grid environments. On the other hand, however, we tried to be as general as possible, i.e. all methods and algorithms discussed in this thesis are independent of Cactus or Globus.
Die wachsenden Kosten für die Behandlung chronischer lumbaler Rückenschmerzen stehen zunehmend in Diskrepanz mit den begrenzten Mitteln für das Gesundheitswesen. Untersuchungen zeigen, dass aktive Trainingsprogramme, je früher sie eingesetzt werden, einen positiven Einfluss auf die Senkung von Kosten für die Gesellschaft haben. Ein rechtzeitiger Einsatz der medizinischen Kräftigungstherapie bei Rückenschmerzpatienten ist somit unter rehabilitativen Gesichtspunkten notwendig. Insbesondere das Training im Wasser gestattet gelenkschonende Übungen in frühen Phasen der Rehabilitation und lassen eine raschere Wiederherstellung erwarten. Über die körperlichen Auswirkungen therapeutischer Trainingsmaßnahmen im Wasser sind bis dato wenige Studien verfügbar, welche die Wirkung des Mediums Wasser auf konditionelle Parameter objektiv quantifizieren und bewerten. Jedoch sind bislang die Möglichkeiten für ein gezieltes Krafttraining im Wasser begrenzt. Eine gerätetechnische Entwicklung, die ein rumpfstabilisierendes Krafttraining im Warmwasser ermöglicht, lässt im Vergleich zu herkömmlichen Trainingsmöglichkeiten eine noch effizientere rehabilitative Behandlung erwarten. Es wird die Fragestellung verfolgt, inwieweit aktive Trainingsformen im Wasser die Maximalkraft und die neuromuskuläre Funktion der Rumpfmuskulatur, sowie den Schmerz von Rückenpatienten beeinflussen. Ferner soll im Rahmen der Untersuchungen die Effektivität eines neu entwickelten Wassertrainingsgerätes geprüft werden. Die Untersuchungen der Ergebnisse von 80 weiblichen Probanden (in fünf Gruppen aufgeteilt: Kontrollgruppe, Aquajogging, Aquarücken, Aquagerät und Rückengymnastik an Land) zeigen, dass durch aktive Interventionsmaßnahmen eine Verbesserung der Kraftfähigkeit und eine Reduzierung von Schmerzen erzielt werden kann. Hingegen kommt es in der Kontrollgruppe, ohne Trainingsanwendungen, zur Stagnation des chronischen Schmerzzustandes, sogar zur Verschlechterung der Kraftentwicklung der Rückenstreckmuskulatur. In allen Trainingsgruppen konnten kurzfristig und mittelfristig weniger Muskelfunktionsstörungen nachgewiesen werden. Bei Betrachtung der Kraftentwicklung der unteren Rumpfmuskulatur fällt auf, dass die höchsten Zuwächse der Bauchmuskelkraft in den Gruppen Aquarücken und Aquagerät festzustellen sind. Die Kraft der Rückenstreckermuskulatur entwickelte sich in der Gruppe Aquagerät mit einer Steigerung von 55% nach der Intervention am stärksten. Es kann die Hypothese aufgestellt werden, dass das Training im warmen Wasser unter stabilisierten Voraussetzungen eine effizientere Methode zur Stärkung der unteren Rumpfmuskulatur zu sein scheint. Bei der Entwicklung der Kraft der oberen Rücken- und Schultergürtelmuskulatur kommt es in den Gruppen Aquajogging und Aquarücken zu den größten Steigerungen. Dies könnte mit der höheren Aktivität der Arme im Übungsprogramm zusammenhängen. Positiv ist die hohe Reduzierung der Schmerzen in allen Trainingsgruppen zu bewerten. Jedoch ist bei Betrachtung der Ergebnisse festzustellen, dass für eine weitere Manifestierung der Trainingserfolge ein weiterführendes Training bedeutsam ist. Die Ergebnisse dieser Studie belegen, dass durch ein gezieltes Training im Wasser und an Land über 6 Wochen, je zweimal pro Woche, deutliche Verbesserungen in der Entwicklung von Kraft, Schmerzintensität, Funktionseinschränkung und Muskelfunktion möglich sind. Ferner werden in dieser Arbeit positive Zusammenhänge zwischen den Entwicklungen Schmerzintensität und Rückenstreckerkraft, sowie Schmerzintensität und Bauchmuskelkraft beobachtet. Zwischen den Versuchsgruppen im Wasser und der Versuchsgruppe an Land konnten nur geringe Unterschiede in den Ergebnissen nachgewiesen werden. Jedoch geben die Resultate Hinweis darauf, dass bei höheren Schmerzintensitäten die Intervention im Wasser die Therapie der Wahl zu sein scheint. Die Resultate dieser Untersuchungen machen deutlich, dass der Einsatz eines Wassertrainingsgerätes in der Therapie chronischer Rückenschmerzpatienten eine effiziente Methode zur Senkung von Schmerzen und zur Steigerung der Kraft der Rücken- und Bauchmuskulatur ist. Vorteile des Wassertraingsgerätes sind die gute Stabilisation des Beckens, trotz auftriebswirksamer Mechanismen im Wasser, die bedienerfreundliche Handhabung, der separat einstellbare Widerstand, die schnellen Therapieerfolge und die hohe Motivation der Kursteilnehmer. Diese Beobachtungen lassen eine effizientere Therapie und damit Kostenersparnisse vermuten. Nachteile sind das hohe Gewicht des Wassertraingsgerätes und die relativ hohen Anschaffungskosten. Die hohe Reduzierung der Schmerzintensität bei den Probanden, die am Wassertrainingsgerät Interventionen durchführten, lassen vermuten, dass diese Geräteanwendungen für Patienten mit sehr schmerzhaften oder subakuten Verlaufsformen besonders geeignet ist. Der schonende Charakter der Aquatherapie und der Einsatz eines neuen Wassertrainingsgerätes unterstützt in effektiver Weise die modernen Konzepte der Rehabilitation chronischer Rückenschmerzpatienten.
Die Eifel ist eines der jüngsten vulkanischen Gebiete Mitteleuropas. Die letzte Eruption ereignete sich vor ungefähr 11000 Jahren. Bisher ist relativ wenig bekannt über die tieferen Mechanismen, die für den Vulkanismus in der Eifel verantwortlich sind. Erdbebenaktivität deutet ebenso darauf hin, dass die Eifel eines der geodynamisch aktivsten Gebiete Mitteleuropas ist. In dieser Arbeit wird die Receiver Function Methode verwendet, um die Strukturen des oberen Mantels zu untersuchen. 96 teleseismische Beben (mb > 5.2) wurden ausgewertet, welche von permanenten und mobilen breitbandigen und kurzperiodischen Stationen aufgezeichnet wurden. Das temporäre Netzwerk registrierte von November 1997 bis Juni 1998 und überdeckte eine Fläche von ungefähr 400x250 km². Das Zentrum des Netzwerkes befand sich in der Vulkaneifel. Die Auswertung der Receiver Function Analyse ergab klare Konversionen von der Moho und den beiden Manteldiskontinuitäten in 410 km und 660 km Tiefe, sowie Hinweise auf einen Mantel-Plume in der Region der Eifel. Die Moho wurde bei ungefähr 30 km Tiefe beobachtet und zeigt nur geringe Variationen im Bereich des Netzwerkes. Die beobachteten Variationen der konvertierten Phasen der Moho können mit lateralen Schwankungen in der Kruste zu tun haben, die mit den Receiver Functions nicht aufgelöst werden können. Die Ergebnisse der Receiver Function Methode deuten auf eine Niedriggeschwindigkeitszone zwischen 60 km bis 90 km in der westlichen Eifel hin. In etwa 200 km Tiefe werden im Bereich der Eifel amplitudenstarke positive Phasen von Konversionen beobachtet. Als Ursache hierfür wird eine Hochgeschwindigkeitszone vorgeschlagen, welche durch mögliches aufsteigendes, dehydrierendes Mantel-Material verursacht wird. Die P zu S Konversionen an der 410 km Diskontinuität zeigen einen späteren Einsatz als nach dem IASP91-Modell erwartet wird. Die migrierten Daten weisen eine Absenkung der 410 km Diskontinuität um bis zu 20 km Tiefe auf, was einer Erhöhung der Temperatur von bis zu etwa 140° Celsius entspricht. Die 660 km Diskontinuität weist keine Aufwölbung auf. Dies deutet darauf hin, dass kein Mantelmaterial direkt von unterhalb der 660 km Diskontinuität in der Eifel-Region aufsteigt oder, dass der Ursprung des Eifel-Plumes innerhalb der Übergangszone liegt.
Die intensive Auswertung unterschiedlicher schriftlicher und mündlicher Quellen sowie die Erschließung von damals "geheimer" Literatur für die Forschung heute ermöglicht eine differenzierte Rekonstruktion historischer Abläufe. Die vorliegende Arbeit nutzt diesen Zugang zur Darstellung von kleineren und größeren DDR-internen sportpolitischen Strukturwandlungen der 1960er und 1970er Jahre, die ihren Höhepunkt in einer dramatischen Umsteuerung des DDR-Hochleistungssports fanden. Es wird gezeigt, wie die Akteure unter Führung von Manfred EWALD, gewähltem Mitglied des SED-Zentralkomitees, einer Zentralfigur des DDR-Sports (vergleichbar mit der Bedeutung eines Willi DAUME im Westen) zwischen Systemzwängen und individueller Handlungsfreiheit innerhalb des Rahmens einer Diktatur in der Phase des Wechsels von Walter ULBRICHT zu Erich HONECKER eine Effektivierung des zentralistischen Modells durchsetzten (eine Parallele zum Ansatz von Monika KAISER). Im Gegensatz zu vielen kontroversen Erklärungsmodellen belegt der Verf., dass die Medaillenerfolge durch die zentrale Steuerung aller Abläufe gewährleistet wurden. Ohne SED-Auftrag wurde 1967 die "Leistungssportkommission der DDR" (LSK der DDR) gebildet. Im Unterschied zu den zahlreichen vom Verf. erstmals dargestellten Vorgängermodellen war diese SED-LSK "oberhalb des DTSB" angesiedelt und erteilte ihm Parteiaufträge - die Unterordnung des organisierten Sports unter die Autorität des Zentralkomitee machte angesichts der "Nationalen Fronten" von Armeesportvereinigung "Vorwärts" und Sportvereinigung "Dynamo" (SPITZER) jegliche zentrale Sportpolitik erst durchsetzbar. Zur "LSK der DDR" waren SED-Mitglieder abgeordnet, welche ihr Sachgebiet vertraten und nach gemeinsamer Beschlussfassung die Ergebnisse der LSK-Arbeit wiederum in ihrem jeweiligen Tätigkeitsfeld durchzusetzen hatten, was in der Diss. ausgeführt wird. Sportvertreter ebenso wie hochrangige Abgesandte der Ministerien, die mit der Produktion von Gütern für den Hochleistungssport befasst waren, gehörten den LSK-Gremien an, die auch die DDR-Sportwissenschaft steuerten; es lässt sich sogar nachweisen, dass die Herrschaft über diesen wichtigen Apparat sowie die Dopingforschung ein Hauptmotiv der LSK-Bildung gewesen ist. Durch seine Quellenorientierung und die Fülle an Belegen gibt die vorliegende Arbeit neue Anreize zur Auseinandersetzung mit dem Phänomen der Steuerung des Hochleistungssports in der DDR - auch über den Untersuchungszeitraum hinaus. Die Untersuchung wurde von der Humanwissenschaftlichen Fakultät der Universität Potsdam als Dissertation angenommen. Sie geht auf ein Stipendium dieser Universität zurück; das Verfahren konnte mit einem Prädikat abgeschlossen werden. Gutachter waren Prof. Dr. Dr. Gertrud PFISTER, Kopenhagen, Prof. Dr. Christoph KLEßMANN, Potsdam, und der Betreuer, Steady Visiting Prof. Univ. Odense, Priv.-Doz. Dr. habil. Giselher SPITZER, Berlin / Potsdam / Odense (Dänemark).
In der vorliegenden Dissertation wird die Bedeutung von Brachen für Artenvielfalt und Stabilität von Blüte-Bestäuber-Nahrungsnetzen in agrarisch genutzten Landschaften anhand ausgewählter blütenbesuchender Insektengruppen (Syrphidae, Lepidoptera) untersucht. Die Freilandarbeiten fanden von 1998-2000 im Raum der Feldberger Seenlandschaft, Mecklenburg-Vorpommern, statt. Es werden die beiden Hauptnahrungsquellen Nektar und Pollen betrachtet, dabei fanden Untersuchungen zur Intensität der Blüte-Bestäuber-Interaktion auf Stilllegungsflächen, zum flächenbezogenen quantitativen Nektarangebot im Jahresverlauf, zur individuellen Pollennutzung bei Syrphiden und zur Breite und Überlappung der Nahrungsnischen bei den dominanten Arten Episyrphus balteatus, Metasyrphus corollae, Syritta pipiens und Sphaerophoria scripta statt. Im Ergebnis zeigt sich eine hohe Bedeutung der Brachflächen für die Stabilität des Blüte-Bestäuber-Netzes, während die Diversität von anderen, eher landschaftsbezogenen Faktoren abhängig ist.
In der nichtlinearen Datenreihenanalyse hat sich seit etwa 10 Jahren eine Monte-Carlo-Testmethode etabliert, die Theiler-surrogatmethode, mit Hilfe derer entschieden werden kann, ob eine Datenreihe nichtlinearen Ursprungs sei. Diese Methode wird kritisiert, modifiziert und verallgemeinert. Das, was Theiler untersuchen will braucht andere Surrogatmethoden, die hier konstruiert werden. Und das, was Theiler untersucht braucht gar keine Monte-Carlo-Methoden. Mit Hilfe des in der Arbeit eingeführten Begriffs des Phasensignals werden Testmöglichkeiten dargelegt und Beziehungen zwischen den nichtlinearen Eigenschaften der Zeitreihe und deren Phasenspektrum erforscht. Das Phasensignal wird aus dem Phasenspektrum der Zeitreihe hergeleitet und registriert außerordentliche Geschehnisse im Zeitbereich sowie Phasenkopplungen im Frequenzbereich. Die gewonnenen Erkenntnisse werden auf das Problem der Polbewegung angewendet. Die Hypothese einer nichtlinearen Beziehung zwischen der atmosphärischen Erregung und der Polbewegung wird untersucht. Eine nichtlineare Behandlung wird nicht für nötig gehalten.
Today, analytical chemistry does not longer consist of only the big measuring devices and methods which are time consuming and expensive, which can furthermore only be handled by the qualified staff and in addition the results can also only be evaluated by this qualified staff. Usually, this technique, which shall be described in the following as 'classic analytic measuring technique', requires also rooms equipped especially and often a relative big quantity of the test compounds which should be prepared especially. Beside this classic analytic measuring technique, limited on definite substance groups and requests, a new measuring technique has gained acceptance particularly within the last years, which one can often be used by a layman, too. Often the new measuring technique has very little pieces of equipment. The needed sample volumes are also small and a special sample preparation isn't required. In addition, the new measuring instruments are simple to handle. They are cheap both in their production and in the use and they permit even a continuous measurement recording usually. Numerous of this new measuring instruments base on the research in the field of Biosensorik during the last 40 years. Since Clark and Lyon in the year 1962 were able to measure glucose with a simple oxygen electrode, completed by an enzyme the development of the new measuring technique did not have to be held back any longer. Biosensors, special pickups which consists of a combination from a biological component (permits a specific recognition of the analyte also without purification of the sample previously) and a physical pickup (convert the primary physicochemical effect into an electronically measurable signal), conquered the market. In the context of this thesis different tyrosinasesensors were developed which fulfilling the various requests, depending on origin and features of the used tyrosinase. One of the tyrosinasesensors for example was used for quantification of phenolic compounds in river and sea water and the results could correlated very well with the corresponding DIN-test for the determination of phenolic compounds. An other developed tyrosinasesensor showed a very high sensitiveness for catecholamines, substances which are of special importance in the medical diagnostics. In addition, the investigations of two different tyrosinases, which were carried out also in the context of this thesis, have shown, that a special tyrosinase (tyrosinase from Streptomyces antibioticus) will be the better choice as tyrosinase from Agaricus bisporus, which is used in the area of biosensor research till now, if one wants to develop in future even more sensitive tyrosinasesensors. Furthermore, first successes became reached on a molecular biological field, the production of tyrosinasemutants with special, before well-considered features. These successes can be used to develop a new generation of tyrosinasesensors, tyrosinasesensors in which tyrosinase can be bound directionally both to the corresponding physical pickup or also to another enzyme. From this one expects to achieve ways minimized which the substance to be determined (or whose product) otherwise must cover. Finally, this should result in an clearly visible increase of sensitivity of the Biosensor.
Combined structural and magnetotelluric investigation across the West Fault Zone in northern Chile
(2002)
The characterisation of the internal architecture of large-scale fault zones is usually restricted to the outcrop-based investigation of fault-related structural damage on the Earth's surface. A method to obtain information on the downward continuation of a fault is to image the subsurface electrical conductivity structure. This work deals with such a combined investigation of a segment of the West Fault, which itself is a part of the more than 2000 km long trench-linked Precordilleran Fault System in the northern Chilean Andes. Activity on the fault system lasted from Eocene to Quaternary times. In the working area (22°04'S, 68°53'W), the West Fault exhibits a clearly defined surface trace with a constant strike over many tens of kilometers. Outcrop condition and morphology of the study area allow ideally for a combination of structural geology investigation and magnetotelluric (MT) / geomagnetic depth sounding (GDS) experiments. The aim was to achieve an understanding of the correlation of the two methods and to obtain a comprehensive view of the West Fault's internal architecture. Fault-related brittle damage elements (minor faults and slip-surfaces with or without striation) record prevalent strike-slip deformation on subvertically oriented shear planes. Dextral and sinistral slip events occurred within the fault zone and indicate reactivation of the fault system. Youngest deformation increments mapped in the working area are extensional and the findings suggest a different orientation of the extension axes on either side of the fault. Damage element density increases with approach to the fault trace and marks an approximately 1000 m wide damage zone around the fault. A region of profound alteration and comminution of rocks, about 400 m wide, is centered in the damage zone. Damage elements in this central part are predominantly dipping steeply towards the east (70-80°). Within the same study area, the electrical conductivity image of the subsurface was measured along a 4 km long MT/GDS profile. This main profile trends perpendicular to the West Fault trace. The MT stations of the central 2 km were 100 m apart from each other. A second profile with 300 m site spacing and 9 recording sites crosses the fault a few kilometers away from the main study area. Data were recorded in the frequency range from 1000 Hz to 0.001 Hz with four real time instruments S.P.A.M. MkIII. The GDS data reveal the fault zone for both profiles at frequencies above 1 Hz. Induction arrows indicate a zone of enhanced conductivity several hundred meters wide, that aligns along the WF strike and lies mainly on the eastern side of the surface trace. A dimensionality analysis of the MT data justifies a two dimensional model approximation of the data for the frequency range from 1000 Hz to 0.1 Hz. For this frequency range a regional geoelectric strike parallel to the West Fault trace could be recovered. The data subset allows for a resolution of the conductivity structure of the uppermost crust down to at least 5 km. Modelling of the MT data is based on an inversion algorithm developed by Mackie et al. (1997). The features of the resulting resistivity models are tested for their robustness using empirical sensitivity studies. This involves variation of the properties (geometry, conductivity) of the anomalies, the subsequent calculation of forward or constrained inversion models and check for consistency of the obtained model results with the data. A fault zone conductor is resolved on both MT profiles. The zones of enhanced conductivity are located to the east of the West Fault surface trace. On the dense MT profile, the conductive zone is confined to a width of about 300 m and the anomaly exhibits a steep dip towards the east (about 70°). Modelling implies that the conductivity increase reaches to a depth of at least 1100 m and indicates a depth extent of less than 2000 m. Further conductive features are imaged but their geometry is less well constrained. The fault zone conductors of both MT profiles coincide in position with the alteration zone. For the dense profile, the dip of the conductive anomaly and the dip of the damage elements of the central part of the fault zone correlate. This suggests that the electrical conductivity enhancement is causally related to a mesh of minor faults and fractures, which is a likely pathway for fluids. The interconnected rock-porosity that is necessary to explain the observed conductivity enhancement by means of fluids is estimated on the basis of the salinity of several ground water samples (Archie's Law). The deeper the source of the water sample, the more saline it is due to longer exposure to fluid-rock interaction and the lower is the fluid's resistivity. A rock porosity in the range of 0.8% - 4% would be required at a depth of 200 m. That indicates that fluids penetrating the damaged fault zone from close to the surface are sufficient to explain the conductivity anomalies. This is as well supported by the preserved geochemical signature of rock samples in the alteration zone. Late stage alteration processes were active in a low temperature regime (<95°C) and the involvement of ascending brines from greater depth is not indicated. The limited depth extent of the fault zone conductors is a likely result of sealing and cementation of the fault fracture mesh due to dissolution and precipitation of minerals at greater depth and increased temperature. Comparison of the results of the apparently inactive West Fault with published studies on the electrical conductivity structure of the currently active San Andreas Fault, suggests that the depth extent and conductivity of the fault zone conductor may be correlated to fault activity. Ongoing deformation will keep the fault/fracture mesh permeable for fluids and impede cementation and sealing of fluid pathways.
Semi-arid areas are, due to their climatic setting, characterized by small water resources. An increasing water demand as a consequence of population growth and economic development as well as a decreasing water availability in the course of possible climate change may aggravate water scarcity in future, which often exists already for present-day conditions in these areas. Understanding the mechanisms and feedbacks of complex natural and human systems, together with the quantitative assessment of future changes in volume, timing and quality of water resources are a prerequisite for the development of sustainable measures of water management to enhance the adaptive capacity of these regions. For this task, dynamic integrated models, containing a hydrological model as one component, are indispensable tools. The main objective of this study is to develop a hydrological model for the quantification of water availability in view of environmental change over a large geographic domain of semi-arid environments. The study area is the Federal State of Ceará (150 000 km2) in the semi-arid north-east of Brazil. Mean annual precipitation in this area is 850 mm, falling in a rainy season with duration of about five months. Being mainly characterized by crystalline bedrock and shallow soils, surface water provides the largest part of the water supply. The area has recurrently been affected by droughts which caused serious economic losses and social impacts like migration from the rural regions. The hydrological model Wasa (Model of Water Availability in Semi-Arid Environments) developed in this study is a deterministic, spatially distributed model being composed of conceptual, process-based approaches. Water availability (river discharge, storage volumes in reservoirs, soil moisture) is determined with daily resolution. Sub-basins, grid cells or administrative units (municipalities) can be chosen as spatial target units. The administrative units enable the coupling of Wasa in the framework of an integrated model which contains modules that do not work on the basis of natural spatial units. The target units mentioned above are disaggregated in Wasa into smaller modelling units within a new multi-scale, hierarchical approach. The landscape units defined in this scheme capture in particular the effect of structured variability of terrain, soil and vegetation characteristics along toposequences on soil moisture and runoff generation. Lateral hydrological processes at the hillslope scale, as reinfiltration of surface runoff, being of particular importance in semi-arid environments, can thus be represented also within the large-scale model in a simplified form. Depending on the resolution of available data, small-scale variability is not represented explicitly with geographic reference in Wasa, but by the distribution of sub-scale units and by statistical transition frequencies for lateral fluxes between these units. Further model components of Wasa which respect specific features of semi-arid hydrology are: (1) A two-layer model for evapotranspiration comprises energy transfer at the soil surface (including soil evaporation), which is of importance in view of the mainly sparse vegetation cover. Additionally, vegetation parameters are differentiated in space and time in dependence on the occurrence of the rainy season. (2) The infiltration module represents in particular infiltration-excess surface runoff as the dominant runoff component. (3) For the aggregate description of the water balance of reservoirs that cannot be represented explicitly in the model, a storage approach respecting different reservoirs size classes and their interaction via the river network is applied. (4) A model for the quantification of water withdrawal by water use in different sectors is coupled to Wasa. (5) A cascade model for the temporal disaggregation of precipitation time series, adapted to the specific characteristics of tropical convective rainfall, is applied for the generating rainfall time series of higher temporal resolution. All model parameters of Wasa can be derived from physiographic information of the study area. Thus, model calibration is primarily not required. Model applications of Wasa for historical time series generally results in a good model performance when comparing the simulation results of river discharge and reservoir storage volumes with observed data for river basins of various sizes. The mean water balance as well as the high interannual and intra-annual variability is reasonably represented by the model. Limitations of the modelling concept are most markedly seen for sub-basins with a runoff component from deep groundwater bodies of which the dynamics cannot be satisfactorily represented without calibration. Further results of model applications are: (1) Lateral processes of redistribution of runoff and soil moisture at the hillslope scale, in particular reinfiltration of surface runoff, lead to markedly smaller discharge volumes at the basin scale than the simple sum of runoff of the individual sub-areas. Thus, these processes are to be captured also in large-scale models. The different relevance of these processes for different conditions is demonstrated by a larger percentage decrease of discharge volumes in dry as compared to wet years. (2) Precipitation characteristics have a major impact on the hydrological response of semi-arid environments. In particular, underestimated rainfall intensities in the rainfall input due to the rough temporal resolution of the model and due to interpolation effects and, consequently, underestimated runoff volumes have to be compensated in the model. A scaling factor in the infiltration module or the use of disaggregated hourly rainfall data show good results in this respect. The simulation results of Wasa are characterized by large uncertainties. These are, on the one hand, due to uncertainties of the model structure to adequately represent the relevant hydrological processes. On the other hand, they are due to uncertainties of input data and parameters particularly in view of the low data availability. Of major importance is: (1) The uncertainty of rainfall data with regard to their spatial and temporal pattern has, due to the strong non-linear hydrological response, a large impact on the simulation results. (2) The uncertainty of soil parameters is in general of larger importance on model uncertainty than uncertainty of vegetation or topographic parameters. (3) The effect of uncertainty of individual model components or parameters is usually different for years with rainfall volumes being above or below the average, because individual hydrological processes are of different relevance in both cases. Thus, the uncertainty of individual model components or parameters is of different importance for the uncertainty of scenario simulations with increasing or decreasing precipitation trends. (4) The most important factor of uncertainty for scenarios of water availability in the study area is the uncertainty in the results of global climate models on which the regional climate scenarios are based. Both a marked increase or a decrease in precipitation can be assumed for the given data. Results of model simulations for climate scenarios until the year 2050 show that a possible future change in precipitation volumes causes a larger percentage change in runoff volumes by a factor of two to three. In the case of a decreasing precipitation trend, the efficiency of new reservoirs for securing water availability tends to decrease in the study area because of the interaction of the large number of reservoirs in retaining the overall decreasing runoff volumes.
Die Landschaften Mitteleuropas sind das Resultat einer langwierigen Geschichte menschlicher Landnutzung mit ihren unterschiedlichen, z.T. konkurrierenden Nutzungsansprüchen. Durch eine überwiegend intensive Beanspruchung haben die direkten und indirekten Auswirkungen der Landnutzung in vielen Fällen zu Umweltproblemen geführt. Die Disziplin der Landschaftsökologie hat es sich zur Aufgabe gemacht, Konzepte für eine nachhaltige Nutzung der Landschaft zu entwickeln. Eine wichtige Fragestellung stellt dabei die Abschätzung der möglichen Folgen von Landnutzungsänderungen dar. Für die Analyse der relevanten Prozesse in der Landschaft werden häufig mathematische Modelle eingesetzt, welche es erlauben die Landschaft unter aktuellen Verhältnissen oder hinsichtlich veränderter Rahmenbedingungen zu untersuchen. Die hypothetische Änderung der Landnutzung, die als Landnutzungsszenario bezeichnet wird, verkörpert eine wesentliche Modifikation der Rahmenbedingungen, weil Landnutzung maßgeblich Einfluss auf die natürlichen Prozesse der Landschaft nimmt. Während die Antriebskräfte einer solchen Änderung überwiegend von sozio-ökonomischen und politischen Entscheidungen gesteuert werden, orientiert sich die exakte Verortung der Landnutzungsänderungen an den naturräumlichen Bedingungen und folgt z.T. erkennbaren Regeln. Anhand dieser Vorgaben ist es möglich, räumlich explizite Landnutzungsszenarien zu entwickeln, die als Eingangsdaten für die Modellierung verschiedener landschaftsökologischer Fragestellungen wie z.B. für die Untersuchung des Einflusses der Landnutzung auf den Wasserhaushalt, die Erosionsgefahr oder die Habitatqualität dienen können. Im Rahmen dieser Dissertation wurde das rasterbasierte deterministische Allokationsmodell luck (Land Use Change Scenario Kit) für die explizite Verortung der Landnutzungsänderungen entwickelt. Es basiert auf den in der Landschaftsökologie üblichen räumlichen Daten wie Landnutzung, Boden sowie Topographie und richtet sich bei der Szenarienableitung nach den Leitbildern der Landschaftsplanung. Das Modell fußt auf der Hypothese, dass das Landnutzungsmuster als Funktion seiner landschaftsökologischen Faktoren beschrieben werden kann. Das Veränderungspotenzial einer Landnutzungseinheit resultiert im Modell aus einer Kombination der Bewertung der relativen Eignung des Standortes für die jeweilige Landnutzung und der Berücksichtigung von Standorteigenschaften der umliegenden Nachbarn. Die Durchführung der Landnutzungsänderung im Modell ist iterativ angelegt, um den graduellen Prozess des Landschaftswandels nachvollziehen zu können. Als Fallbeispiel für die Anwendung solcher räumlich expliziten Landnutzungsszenarien dient die Fragestellung, inwieweit Landnutzungsänderungen die Hochwasserentstehung beeinflussen. Um den Einfluss auf die Hochwasserentstehung für jede der Landnutzungskategorien – bebaute, landwirtschaftlich genutzte und naturnahe Flächen – abschätzen zu können, wird im Landnutzungsmodell luck exemplarisch für jede Kategorie ein Teilmodell für die Veränderung von Landnutzung angeboten: 1) Ausdehnung der Siedlungsfläche: Dieses Teilmodell fußt auf der Annahme, dass sich Siedlungen nur in direkter Nachbarschaft bereits bestehender Bebauung und bevorzugt entlang von Entwicklungsachsen ausbreiten. Steile Hangneigungen stellen für potenzielle Standorte ein Hemmnis bei der Ausbreitung dar. 2) Stilllegung von Grenzertragsackerflächen: Gemäß der Hypothese, dass sich die Stilllegung von Ackerflächen an der potenziellen Ertragsleistung der Standorte orientiert, werden in diesem Teilmodell alle Ackerstandorte dahingehend bewertet und die Flächen mit der geringsten Leistungsfähigkeit stillgelegt. Bei homogenen Gebietseigenschaften werden die Stilllegungsflächen zufällig auf die Ackerfläche verteilt. 3) Etablierung von Schutzgebieten in Ufer- und Auenbereichen: Ausgehend von der These, dass sich entlang von Flüssen sensible Flächen befinden, deren Schutz positive Folgen für das Leistungsvermögen der Landschaft haben kann, werden in diesem Teilmodell schützenswerte Ufer- und Auenbereiche auf derzeit landwirtschaftlich genutzten Flächen ausgewiesen. Die Größe der Schutzgebietsfläche orientiert sich an der Morphologie der umgebenden Landschaft. Die drei Teilmodelle wurden hinsichtlich der implizierten Hypothesen mit vielen unterschiedlichen Ansätzen validiert. Das Resultat dieser intensiven Analyse zeigt für jedes Teilmodell eine zufriedenstellende Tauglichkeit. Die Modellierung der Landnutzungsänderungen wurden in drei mesoskaligen Flusseinzugsgebieten mit einer Fläche zwischen 100 und 500 km² durchgeführt, die sich markant in ihrer Landnutzung unterscheiden. Besonderer Wert wurde bei der Gebietsauswahl darauf gelegt, dass eines der Gebiete intensiv landwirtschaftlich genutzt wird, eines dicht besiedelt und eines vorwiegend bewaldet ist. Im Hinblick auf ihre Relevanz für die vorliegende Fragestellung wurden aus bestehenden Landnutzungstrends die Szenarien für (1) die prognostizierte Siedlungsfläche für das Jahr 2010, (2) die möglichen Konsequenzen des EU-weiten Beschlusses der Agenda 2000 und (3) die Novelle des Bundesnaturschutzgesetzes aus dem Jahr 2001 abgeleitet. Jedes Szenario wurde mit Hilfe des Modells auf die drei Untersuchungsgebiete angewendet. Dabei wurden für die Siedlungsausdehnung in allen drei Gebieten realistische Landnutzungsmuster generiert. Einschränkungen ergeben sich bei der Suche nach Grenzertragsstilllegungsflächen. Hier hat unter homogenen Gebietseigenschaften die zufällige Verteilung von Flächen für die Stilllegung zu einem unrealistischen Ergebnis geführt. Die Güte der Schutzgebietsausweisung ist maßgeblich an die aktuelle Landnutzung der Aue und die Morphologie des Geländes gebunden. Die besten Ergebnisse werden erzielt, wenn die Flächen in den Ufer- und Auenbereichen mehrheitlich unter derzeitiger Ackernutzung stehen und der Flusslauf sich in das Relief eingetieft hat. Exemplarisch werden für jeden Landnutzungstrend die hydrologischen Auswirkungen anhand eines historischen Hochwassers beschrieben, aus denen jedoch keine pauschale Aussage zum Einfluss der Landnutzung abgeleitet werden kann. Die Studie demonstriert die Bedeutung des Landnutzungsmusters für die natürlichen Prozesse in der Landschaft und unterstreicht die Notwendigkeit einer räumlich expliziten Modellierung für landschaftsökologische Fragestellungen in der Mesoskala.
Das Ziel dieser Arbeit ist es, die Strukturen im äußeren Erdkern zu untersuchen und Rückschlüsse auf die sich daraus ergebenden Konsequenzen für geodynamische Modellvorstellungen zu ziehen. Die Untersuchung der Kernphasenkaustik B mit Hilfe einer kumulierten Amplituden-Entfernungskurve ist Gegenstand des ersten Teils. Dazu werden die absoluten Amplituden der PKP-Phasen im Entfernungsbereich von 142 ° bis 147 ° bestimmt und mit den Amplituden synthetischer Seismogramme verglichen. Als Datenmaterial dienen die Breitbandregistrierungen des Deutschen Seismologischen Re-gionalnetzes (GRSN 1 ) und des Arrays Gräfenberg (GRF). Die verwendeten Wellen-formen werden im WWSSN-SP-Frequenzbereich gefiltert. Als Datenbasis dienen vier Tiefherdbeben der Subduktionszone der Neuen Hebriden (Vanuatu Island) und vier Nuklearexplosionen, die auf dem Mururoa und Fangataufa Atoll im Südpazifik stattgefunden haben. Beide Regionen befinden sich vom Regionalnetz aus gesehen in einer Epizentraldistanz von ungefähr 145 °. Die Verwendung eines homogen instrumentierten Netzes von Detektoren und die Anwendung von Stations- und Magnitudenkorrekturen verringern den Hauptteil der Streuung bei den Amplitudenwerten. Dies gilt auch im Vergleich zu Untersuchungen von langperiodischen Amplituden im Bereich der Kernphasenkaustik (Häge, 1981). Ein weiterer Grund für die geringe Streuung ist die ausschließliche Verwendung von Ereignissen mit kurzer impulsiver Herdzeitfunktion. Erst die geringe Streuung der Amplitudenwerte ermöglicht eine Interpretation der Daten. Die theoretischen Amplitudenkurven der untersuchten Erdmodelle zeigen im Bereich der Kaustik B einen gleichartigen Kurvenverlauf. Bei allen Berechnungen wird ein einheitliches Modell für die Güte der P- und S-Wellen verwendet, das sich aus den Q-Werten der Modelle CIT112 und PREM 2 zusammensetzt. Die mit diesem Q-Modell berechneten Amplituden liegen in geringem Maße oberhalb der gemessenen Amplituden. Dies braucht nicht berücksichtigt zu werden, da die kumulierte Amplituden-Entfernungskurve anhand der Lage des Maximums auf der Entfernungsachse ausgewertet wird. Folglich wird darauf verzichtet, ein alternatives Q-Modell zu entwickeln. Hinsichtlich der Lage des Kaustikmaximums lassen sich die untersuchten Erdmodelle in zwei Kategorien einteilen. Eine Gruppe besteht aus den Modellen IASP91 und 1066B, deren Maxima bei 144.6 ° und 144.7 ° liegen. Zur zweiten Gruppe von Modellen zählen AK135, PREM und SP6 mit den Maxima bei 145.1 ° und 145.2 ° (SP6). Die gemessene Amplitudenkurve hat ihr Maximum bei 145 °. Alle Entfernungsangaben beziehen sich auf eine Herdtiefe von 200 km. Die Kaustikentfernung für einen Oberflächenherd ist jeweils um 0.454 ° größer als die angegeben Werte. Damit liegen die Maxima der Modelle AK135 und PREM nur 0.1 ° neben dem der gemessenen kumulierten Amplitudenkurve. Daher wird auf die Erstellung eines eigenen Modells verzichtet, da dieses eine unwesentlich verbesserte Amplitudenkurve aufweisen würde. Das Ergebnis der Untersuchung ist die Erstellung einer gemessenen kumulierten Amplituden-Entfernungskurve für die Kaustik B. Die Kurve legt die Position der Kaustik B für kurzperiodische Daten auf ± 0.15 ° fest und bestimmt damit, welche Erdmodelle für die Beschreibung der Amplituden im Entfernungsbereich der Kaustik B besonders geeignet sind. Die Erdmodelle AK135 und PREM, ergänzt durch ein einheitliches Q-Modell, geben den Verlauf der Amplituden am besten wieder. Da die Amplitudenkurven beider Modelle nahe beieinander liegen, sind sie als gleichwertig zu bezeichnen. Im zweiten Teil der Arbeit wird die Struktur der Übergangszone in den inneren Erdkern anhand des spektralen Abklingens der Phase PKP(BC)diff am Punkt C der Laufzeitkurve untersucht. Der physikalische Prozeß der Beugung ist für die starke Abnahme der Amplituden dieser Phase verantwortlich. Die Diffraktion beeinflußt das Abklingverhalten verschiedener Frequenzanteile des seismischen Signals auf unterschiedliche Weise. Eine Deutung des Verhaltens erfordert die Berechnung von Abklingspektren. Dabei wird die Abschwächung des PKP(BC)diff Signals für acht Frequenzen zwischen 6.4 s und 1.25 Hz ermittelt und als Spektrum dargestellt. Die Form des Abklingspektrums ist charakteristisch für die Beschaffenheit der Geschwindigkeitsstruktur direkt oberhalb der Grenze zum inneren Erdkern (GIK). Die Beben, deren Kernphasen im Regionalnetz als diffraktierte Kernphasen BCdiff registriert werden, liegen in einem Entfernungsbereich jenseits von 150 °. In dieser Distanz befinden sich die Erdbebenherde der Tonga-Fidschi-Subduktionszone, deren Breitbandaufzeichnungen verwendet werden. Die Auswertung unkorrigierter Wellenformen ergibt Abklingspektren, die mit plausiblen Erdmodellen nicht in Einklang zu bringen sind. Aus diesem Grund werden die Daten einer spektralen Stationskorrektur unterzogen, die eigens zu diesem Zweck ermittelt wird. Am Beginn der Auswertung steht eine Prüfung bekannter Erdmodelle mit unterschiedlichen Geschwindigkeitsstrukturen oberhalb der GIK. Zu den untersuchten Modellen zählen PREM, IASP91, AK135Q, PREM2, SP6, OICM2 und eine Variante des PREM. Die Untersuchung ergibt, daß Modelle, die einen verringerten Gradienten oberhalb der GIK aufweisen, eine bessere Übereinstimmung mit den gemessenen Daten zeigen als Modelle ohne diese Übergangszone. Zur Verifikation dieser These wird ein Erdmodell, das keinen verringerten Gradienten oberhalb der GIK besitzt (PREM), durch eine Reihe unterschiedlicher Geschwindigkeitsverläufe in diesem Bereich ergänzt und deren synthetische Seismogramme berechnet. Das Resultat der Untersuchung sind zwei Varianten des PREM, deren Frequenzanalyse eine gute Übereinstimmung mit den Daten zeigt. Das Abklingspektrum des Erdmodells PD47, das in einer 380 km mächtigen Schicht einen negativen Gradienten besitzt, zeigt eine große Ähnlichkeit mit den gemessenen Spektren. Dennoch kann es nicht als realistisches Modell angesehen werden, da der Punkt C in einer zu großen Entfernung liegt. Darüber hinaus müßte die zu kurze Differenzlaufzeit zwischen PKP(AB) und PKP(DF) beziehungsweise PKIKP durch eine größere Änderung der Geschwindigkeitsstruktur im inneren Kern kompensiert werden. Es wird deshalb das Modell PD27a favorisiert, das diese Nachteile nicht aufweist. PD27a besitzt eine Schicht konstanter Geschwindigkeit oberhalb der GIK mit einer Mächtigkeit von 150 km. Die Art des Geschwindigkeitsverlaufs steht im Einklang mit der geodynamischen Modellvorstellung, nach der eine Anreicherung leichter Elemente oberhalb der GIK vorliegt, die als Ursache für die Konvektion im äußeren Erdkern anzusehen ist.
Deep convection is an essential part of the circulation in the North Atlantic Ocean. It influences the northward heat transport achieved by the thermohaline circulation. Understanding its stability and variability is therefore necessary for assessing climatic changes in the area of the North Atlantic. This thesis aims at improving the conceptual understanding of the stability and variability of deep convection. Observational data from the Labrador Sea show phases with and without deep convection. A simple two-box model is fitted to these data. The results suggest that the Labrador Sea has two coexisting stable states, one with regular deep convection and one without deep convection. This bistability arises from a positive salinity feedback that is due to the net freshwater input into the surface layer. The convecting state can easily become unstable if the mean forcing shifts to warmer or less saline conditions. The weather-induced variability of the external forcing is included into the box model by adding a stochastic forcing term. It turns out that deep convection is then switched "on" and "off" frequently. The mean residence time in either state is a measure of its stochastic stability. The stochastic stability depends smoothly on the forcing parameters, in contrast to the deterministic (non-stochastic) stability which may change abruptly. The mean and the variance of the stochastic forcing both have an impact on the frequency of deep convection. For instance, a decline in convection frequency due to a surface freshening may be compensated for by an increased heat flux variability. With a further simplified box model some stochastic stability features are studied analytically. A new effect is described, called wandering monostability: even if deep convection is not a stable state due to changed forcing parameters, the stochastic forcing can still trigger convection events frequently. The analytical expressions explicitly show how wandering monostability and other effects depend on the model parameters. This dependence is always exponential for the mean residence times, but for the probability of long nonconvecting phases it is exponential only if this probability is small. It is to be expected that wandering monostability is relevant in other parts of the climate system as well. All in all, the results demonstrate that the stability of deep convection in the Labrador Sea reacts very sensitively to the forcing. The presence of variability is crucial for understanding this sensitivity. Small changes in the forcing can already significantly lower the frequency of deep convection events, which presumably strongly affects the regional climate. ----Anmerkung: Der Autor ist Träger des durch die Physikalische Gesellschaft zu Berlin vergebenen Carl-Ramsauer-Preises 2003 für die jeweils beste Dissertation der vier Universitäten Freie Universität Berlin, Humboldt-Universität zu Berlin, Technische Universität Berlin und Universität Potsdam.
Das Lektin aus Pisum sativum, der Gartenerbse, ist Teil der Familie der Leguminosenlektine. Diese Proteine haben untereinander eine hohe Sequenzhomologie, und die Struktur ihrer Monomere, ein all-ß-Motiv, ist hoch konserviert. Dagegen gibt es innerhalb der Familie eine große Vielfalt an unterschiedlichen Quartärstrukturen, die Gegenstand kristallographischer und theoretischer Arbeiten waren. Das Erbsenlektin ist ein dimeres Leguminosenlektin mit einer Besonderheit in seiner Struktur: Nach der Faltung in der Zelle wird aus einem Loop eine kurze Aminosäuresequenz herausgeschnitten, so dass sich in jeder Untereinheit zwei unabhängige Polypeptidketten befinden. Beide Ketten sind aber stark miteinander verschränkt und bilden eine gemeinsame strukturelle Domäne. Wie alle Lektine bindet Erbsenlektin komplexe Oligosaccharide, doch sind seine physiologische Rolle und der natürliche Ligand unbekannt. In dieser Arbeit wurden Versuche zur Entwicklung eines Funktionstests für Erbsenlektin durchgeführt und seine Faltung, Stabilität und Monomer-Dimer-Gleichgewicht charakterisiert. Um die spezifische Rolle der Prozessierung für Stabilität und Faltung zu untersuchen, wurde ein unprozessiertes Konstrukt in E. coli exprimiert und mit der prozessierten Form verglichen. Beide Proteine zeigen die gleiche kinetische Stabilität gegenüber chemischer Denaturierung. Sie denaturieren extrem langsam, weil nur die isolierten Untereinheiten entfalten können und das Monomer-Dimer-Gleichgewicht bei mittleren Konzentrationen an Denaturierungsmittel auf der Seite der Dimere liegt. Durch die extrem langsame Entfaltung zeigen beide Proteine eine apparente Hysterese im Gleichgewichtsübergang, und es ist nicht möglich, die thermodynamische Stabilität zu bestimmen. Die Stabilität und die Geschwindigkeit der Assoziation und Dissoziation in die prozessierten bzw. nichtprozessierten Untereinheiten sind für beide Proteine gleich. Darüber hinaus konnte gezeigt werden, dass auch unter nicht-denaturierenden Bedingungen die Untereinheiten zwischen den Dimeren ausgetauscht werden. Die Renaturierung der unprozessierten Variante ist unter stark nativen Bedingungen zu 100 % möglich. Das prozessierte Protein dagegen renaturiert nur zu etwa 50 %, und durch die Prozessierung ist die Faltung stark verlangsamt, der Faltungsprozess ist erst nach mehreren Tagen abgeschlossen. Im Laufe der Renaturierung wird ein Intermediat populiert, in dem die längere der beiden Polypeptidketten ein Homodimer mit nativähnlicher Untereinheitenkontaktfläche bildet. Der geschwindigkeitsbestimmende Schritt der Renaturierung ist die Assoziation der entfalteten kürzeren Kette mit diesem Dimer.
Motivated by recent proposals on the experimental detectability of quantum gravity effects, the present thesis investigates assumptions and methods which might be used for the prediction of such effects within the framework of loop quantum gravity. To this end, a scalar field coupled to gravity is considered as a model system. Starting from certain assumptions about the dynamics of the coupled gravity-matter system, a quantum theory for the scalar field is proposed. Then, assuming that the gravitational field is in a semiclassical state, a "QFT on curved space-time limit" of this theory is defined. In contrast to ordinary quantum field theory on curved space-time however, in this limit the theory describes a quantum scalar field propagating on a (classical) random lattice. Then, methods to obtain the low energy limit of such a lattice theory, especially regarding the resulting modified dispersion relations, are discussed and applied to simple model systems. Finally, under certain simplifying assumptions, using the methods developed before as well as a specific class of semiclassical states, corrections to the dispersion relations for the scalar and the electromagnetic field are computed within the framework of loop quantum gravity. These calculations are of preliminary character, as many assumptions enter whose validity remains to be studied more thoroughly. However they exemplify the problems and possibilities of making predictions based on loop quantum gravity that are in principle testable by experiment.
Vergleich von rekombinanten Vaccinia- und DNA-Vektoren zur Tumorimmuntherapie im C57BL/6-Mausmodell
(2002)
In der vorliegenden Arbeit wurden Tumorimpfstoffe auf der Basis des Plasmid-Vektors pCI, modified vaccinia virus Ankara (MVA) und MVA-infizierten dendritischen Zellen entwickelt und durch Sequenzierung, Western blotting und durchflußzytometrische Analyse überprüft. Die in vivo Wirksamkeit der Vakzinen wurde in verschiedenen Tumormodellen in C57BL/6 Mäusen verglichen. Die auf dem eukaryotischen Expressionsvektor pCI basierende DNA-Vakzinierung induzierte einen sehr wirksamen, antigenspezifischen und langfristigen Schutz vor Muzin, CEA oder beta-Galactosidase exprimierenden Tumoren. Eine MVA-Vakzinierung bietet in den in dieser Arbeit durchgeführten Tumormodellen keinen signifikanten Schutz vor Muzin oder beta-Galactosidase exprimierenden Tumoren. Sowohl humane, als auch murine in vitro generierte dendritische Zellen lassen sich mit MVA – im Vergleich zu anderen viralen Vektoren – sehr gut infizieren. Die Expressionsrate der eingefügten Gene ist aber gering im Vergleich zur Expression in permissiven Wirtszellen des Virus (embryonale Hühnerfibroblasten). Es konnte gezeigt werden, daß eine MVA-Infektion dendritischer Zellen ähnliche Auswirkungen auf den Reifezustand humaner und muriner dendritischer Zellen hat, wie eine Infektion mit replikationskompetenten Vakzinia-Stämmen, und außerdem die Hochregulation von CD40 während der terminalen Reifung von murinen dendritischen Zellen inhibiert wird. Die während der langfristigen in vitro Kultur auf CEF-Zellen entstandenen Deletionen im MVA Genom führten zu einer starken Attenuierung und dem Verlust einiger Gene, die immunmodulatorische Proteine kodieren, jedoch nicht zu einer Verminderung des zytopathischen Effekts in dendritischen Zellen. Die geringe Expressionsrate und die beobachtete Inhibition der Expression kostimulatorischer Moleküle auf dendritischen Zellen kann für eine wenig effektive Induktion einer Immunantwort in MVA vakzinierten Tieren durch cross priming oder die direkte Infektion antigenpräsentierender Zellen verantwortlich sein. Durch die Modifikation einer Methode zur intrazellulären IFN-gamma Färbung konnten in vakzinierten Mäusen tumorantigenspezifische CTL sensitiv und quantitativ detektiert werden. Die so bestimmte CTL-Frequenz, nicht jedoch die humorale Antwort, korrelierte mit der in vivo Wirksamkeit der verschiedenen Vakzinen: DNA vakzinierte Tiere entwickeln starke tumorantigenspezifische CTL-Antworten, wohingegen in MVA-vakzinierten Tieren überwiegend gegen virale Epitope gerichtete CD4 und CD8-T-Zellen detektiert wurden. Die Wirksamkeit der pCI-DNA-Vakzine spricht für die Weiterentwicklung in weiteren präklinischen Mausmodellen, beispielsweise unter Verwendung von MUC1 oder HLA-A2 transgenen Mäusen. Die Methoden zur Detektion Tumorantigen-spezifischer CTL in 96-Loch-Mikrotiterplatten können dabei zur systematischen Suche nach im Menschen immundominanten T-Zell-Epitopen im Muzin-Molekül genutzt werden. Der durchgeführte Vergleich der auf den Vektoren pCI und MVA basierenden Vakzinen und die Analyse neuerer Publikationen führen zu dem Ergebnis, daß vor allem DNA-Vakzinen in Zukunft eine wichtige Rolle bei der Entwicklung von aktiven Tumorimpfstoffen spielen werden. Rekombinante MVA-Viren, eventuell in Kombination mit DNA- oder anderen Vektoren, haben sich dagegen in zahlreichen Studien als wirksame Impfstoffe zur Kontrolle von durch Pathogene hervorgerufenen Infektionserkrankungen erwiesen.
Structural and spectroscopical study of crystals of 1,3,4-oxadiazole derivatives at high pressure
(2002)
In recent years the search for new materials of technological interest has given new impulses to the study of organic compounds. Organic substances possess a great number of advantages such as the possibility to adjust their properties for a given purpose by different chemical and physical techniques in the preparation process. Oxadiazole derivatives are interesting due to their use as material for light emitting diodes (LED) as well as scintillators. The physical properties of a solid depend on its structure. Different structures induce different intra- and intermolecular interactions. An advantageous method to modify the intra- as well as the intermolecular interactions of a given substance is the application of high pressure. Furthermore, using this method the chemical features of the compound are not influenced. We have investigated the influence of high pressure and high temperature on the super-molecular structure of several oxadiazole derivatives in crystalline state. From the results of this investigation an equation of state for these crystals was determined. Furthermore, the spectroscopical features of these materials under high pressure were characterized.