TY - GEN A1 - Beck, Michael A1 - Hildebrandt, Niko A1 - Löhmannsröben, Hans-Gerd T1 - Quantum dots as acceptors in FRET-assays containing serum N2 - Quantum dots (QDs) are common as luminescing markers for imaging in biological applications because their optical properties seem to be inert against their surrounding solvent. This, together with broad and strong absorption bands and intense, sharp tuneable luminescence bands, makes them interesting candidates for methods utilizing Förster Resonance Energy Transfer (FRET), e. g. for sensitive homogeneous fluoroimmunoassays (FIA). In this work we demonstrate energy transfer from Eu3+-trisbipyridin (Eu-TBP) donors to CdSe-ZnS-QD acceptors in solutions with and without serum. The QDs are commercially available CdSe-ZnS core-shell particles emitting at 655 nm (QD655). The FRET system was achieved by the binding of the streptavidin conjugated donors with the biotin conjugated acceptors. After excitation of Eu-TBP and as result of the energy transfer, the luminescence of the QD655 acceptors also showed lengthened decay times like the donors. The energy transfer efficiency, as calculated from the decay times of the bound and the unbound components, amounted to 37%. The Förster-radius, estimated from the absorption and emission bands, was ca. 77 Å. The effective binding ratio, which not only depends on the ratio of binding pairs but also on unspecific binding, was obtained from the donor emission dependent on the concentration. As serum promotes unspecific binding, the overall FRET efficiency of the assay was reduced. We conclude that QDs are good substitutes for acceptors in FRET if combined with slow decay donors like Europium. The investigation of the influence of the serum provides guidance towards improving binding properties of QD assays. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - paper 019 KW - Quantenpunkt KW - Lumineszenz KW - Serum KW - Europium KW - Immunoassay KW - Energietransfer KW - Fluoreszenz-Resonanz-Energie-Transfer KW - Förster-Resonanz-Energie-Transfer KW - Quantum Dot KW - Luminescence KW - Serum KW - Europium KW - Immunoassay KW - Energy Transfer KW - FRET Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-9504 ER - TY - THES A1 - Camacho González, Francisco T1 - Charge-Storage mechanisms in polymer electrets T1 - Ladungsspeicherung Mechanismen in Polymerelektreten N2 - In view of the importance of charge storage in polymer electrets for electromechanical transducer applications, the aim of this work is to contribute to the understanding of the charge-retention mechanisms. Furthermore, we will try to explain how the long-term storage of charge carriers in polymeric electrets works and to identify the probable trap sites. Charge trapping and de-trapping processes were investigated in order to obtain evidence of the trap sites in polymeric electrets. The charge de-trapping behavior of two particular polymer electrets was studied by means of thermal and optical techniques. In order to obtain evidence of trapping or de-trapping, charge and dipole profiles in the thickness direction were also monitored. In this work, the study was performed on polyethylene terephthalate (PETP) and on cyclic-olefin copolymers (COCs). PETP is a photo-electret and contains a net dipole moment that is located in the carbonyl group (C = O). The electret behavior of PETP arises from both the dipole orientation and the charge storage. In contrast to PETP, COCs are not photo-electrets and do not exhibit a net dipole moment. The electret behavior of COCs arises from the storage of charges only. COC samples were doped with dyes in order to probe their internal electric field. COCs show shallow charge traps at 0.6 and 0.11 eV, characteristic for thermally activated processes. In addition, deep charge traps are present at 4 eV, characteristic for optically stimulated processes. PETP films exhibit a photo-current transient with a maximum that depends on the temperature with an activation energy of 0.106 eV. The pair thermalization length (rc) calculated from this activation energy for the photo-carrier generation in PETP was estimated to be approx. 4.5 nm. The generated photo-charge carriers can recombine, interact with the trapped charge, escape through the electrodes or occupy an empty trap. PETP possesses a small quasi-static pyroelectric coefficient (QPC): ~0.6 nC/(m²K) for unpoled samples, ~60 nC/(m²K) for poled samples and ~60 nC/(m²K) for unpoled samples under an electric bias (E ~10 V/µm). When stored charges generate an internal electric field of approx. 10 V/µm, they are able to induce a QPC comparable to that of the oriented dipoles. Moreover, we observe charge-dipole interaction. Since the raw data of the QPC-experiments on PETP samples is noisy, a numerical Fourier-filtering procedure was applied. Simulations show that the data analysis is reliable when the noise level is up to 3 times larger than the calculated pyroelectric current for the QPC. PETP films revealed shallow traps at approx. 0.36 eV during thermally-stimulated current measurements. These energy traps are associated with molecular dipole relaxations (C = O). On the other hand, photo-activated measurements yield deep charge traps at 4.1 and 5.2 eV. The observed wavelengths belong to the transitions in PETP that are analogous to the π - π* benzene transitions. The observed charge de-trapping selectivity in the photocharge decay indicates that the charge detrapping is from a direct photon-charge interaction. Additionally, the charge de-trapping can be facilitated by photo-exciton generation and the interaction of the photo-excitons with trapped charge carriers. These results indicate that the benzene rings (C6H4) and the dipolar groups (C = O) can stabilize and share an extra charge carrier in a chemical resonance. In this way, this charge could be de-trapped in connection with the photo-transitions of the benzene ring and with the dipole relaxations. The thermally-activated charge release shows a difference in the trap depth to its optical counterpart. This difference indicates that the trap levels depend on the de-trapping process and on the chemical nature of the trap site. That is, the processes of charge detrapping from shallow traps are related to secondary forces. The processes of charge de-trapping from deep traps are related to primary forces. Furthermore, the presence of deep trap levels causes the stability of the charge for long periods of time. N2 - Angesichts der Bedeutung der Ladungsspeicherung in Polymerelektreten für viele Anwendungen, wie z.B. in elektromechanischen Wandler, ist es das Ziel dieser Arbeit, zum Verständnis der zugrundeliegenden Mechanismen der kurz- und langfristigen Ladungsstabilisierung beizutragen sowie mögliche Haftstellen zu identifizieren. Ladungs- und Entladungsprozesse in Elektreten geben Hinweise auf Ladungshaftstellen. Diese Prozesse wurden mit thermischen und optischen Methoden bei gleichzeitiger Messung von Ladungs- und Polarisationprofilen untersucht. Die experimentellen Untersuchungen der vorliegenden Arbeit wurden an Polyethylenterephthalat (PETP) und an Cyclischen-Olefin Copolymeren (COC) durchgeführt. PETP ist ein Photoelektret und weist in der Carbonylgruppe (C = O) ein Dipolmoment auf. Die Elektreteigenschaften ergeben sich sowohl aus der Orientierungspolarisation als auch aus der Ladungsspeicherung. Im Gegensatz zu PETP ist COC kein Photoelektret und zeigt auch keine Orientierungspolarisation. Deshalb folgen die Elektreteigenschaften des COC ausschließlich aus der Ladungsspeicherung. Die COC-Proben wurden mit Farbstoffen dotiert, um das innere elektrische Feld zu untersuchen. Diese Systeme zeigen flache Ladungshaftstellen bei 0,6 und 0,11 eV, die durch thermisch stimulierte Prozesse entladen werden sowie tiefe Haftstellen bei 4 eV, die optisch stimuliert werden können. PETP-Filme zeigen einen transienten Photostrom mit einem Maximalwert ( jp), der von der Temperatur mit einer Aktivierungsenergie von 0,106 eV abhängt. Der thermische Paarabstand (rc) kann für die Photoladungsgeneration in PETP auf ca. 4,5 nm abgeschätzt werden. Die Photoladungsträger können rekombinieren, mit den gespeicherten Ladungen interagieren, über die Elektroden entkommen oder eine leere Haftstelle einnehmen. PETP zeigt einen kleinen quasi-statischen pyroelektrischen Koeffizienten (QPC) von ca. 0,6 nC/(m²K) für nicht polarisierte Proben, ca. 60 nC/(m²K) für polarisierte Proben und ca. 60 nC/(m²K) für nicht polarisierte Proben mit Vorspannung (E ~10 V/µm). Wenn die gespeicherten Ladungen ein internes elektrisches Feld von ca. 10 V/µm generieren können, sind sie in der Lage, einen QPC herbeizuführen, der vergleichbar mit dem von orientierten Dipolen ist. Es ist außerdem möglich, eine Ladungs-Dipol-Wechselwirkung zu beobachten. Da die QPM-Daten von PETP auf Grund des geringen Signals verrauscht sind, wurde ein numerisches Fourier-Filterverfahren angewandt. Simulationen zeigen, dass eine zuverlässige Datenanalyse noch bei einem Signal möglich ist, dessen Rauschen bis zu 3-mal größer ist als der berechnete pyroelektrische Strom. Messungen der thermisch stimulierten Entladung von PETP-Filmen ergaben flache Haftstellen bei ca. 0,36 eV, welche mit der Dipolrelaxation der Carbonylgruppe (C = O) assoziiert sind. Messungen der photostimulierten Entladung ergaben tiefe Haftstellen bei 4,1 und 5,2 eV. Die beobachteten Wellenlängen entsprechen Übergängen in PETP analog den π - π* Übergängen in Benzol. Die beobachtete Selektivität bei der photostimulierten Entladung lässt auf eine direkte Wechselwirkung von Photonen und Ladungen schließen. Einen zusätzlichen Einfluß auf die Entladung hat die Erzeugung von Photo-Exzitonen und deren Wechselwirkung mit den gespeicherten Ladungsträgern. Diese Ergebnisse deuten darauf hin, dass die Phenylringe (C6H4) und die Dipolgruppen (C = O) eine zusätzliche Ladung in einer chemischen Resonanz stabilisieren und miteinander teilen können. Daher kann die gebundene Ladung auch durch einen Photoübergang im Benzolring oder durch eine Dipolrelaxation freigesetzt werden. Die mittels thermisch stimulierter Entladung bestimmte Tiefe der Haftstellen unterscheidet sich deutlich von den mittels photostimulierter Entladung gemessenen Werten. Flachere Haftstellen werden bei der thermisch stimulierten Entladung gefunden und können sekundären Kräften zugeordnet werden. Die tieferen Haftstellen sind chemischer Natur und können primären Kräften zugeordnet werden. Letztere sind für die Langzeitstabilität der Ladung in Polymerelektreten verantwortlich. KW - Charge-Storage KW - polymer-electret KW - photo-stimulated discharge KW - polyethylene terephthalate KW - cyclic-olefin copolymer KW - charge-dipole interaction KW - thermo-stimulated discharge KW - thermo-luminescence KW - trap-depth KW - charge profiling KW - charge storage KW - charge trap Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-8756 ER - TY - THES A1 - Maraun, Douglas T1 - What can we learn from climate data? : Methods for fluctuation, time/scale and phase analysis T1 - Was können wir aus Klimadaten lernen? : Methoden zur Fluktuations-, Zeit/Skalen- und Phasenanalyse N2 - Since Galileo Galilei invented the first thermometer, researchers have tried to understand the complex dynamics of ocean and atmosphere by means of scientific methods. They observe nature and formulate theories about the climate system. Since some decades powerful computers are capable to simulate the past and future evolution of climate. Time series analysis tries to link the observed data to the computer models: Using statistical methods, one estimates characteristic properties of the underlying climatological processes that in turn can enter the models. The quality of an estimation is evaluated by means of error bars and significance testing. On the one hand, such a test should be capable to detect interesting features, i.e. be sensitive. On the other hand, it should be robust and sort out false positive results, i.e. be specific. This thesis mainly aims to contribute to methodological questions of time series analysis with a focus on sensitivity and specificity and to apply the investigated methods to recent climatological problems. First, the inference of long-range correlations by means of Detrended Fluctuation Analysis (DFA) is studied. It is argued that power-law scaling of the fluctuation function and thus long-memory may not be assumed a priori but have to be established. This requires to investigate the local slopes of the fluctuation function. The variability characteristic for stochastic processes is accounted for by calculating empirical confidence regions. The comparison of a long-memory with a short-memory model shows that the inference of long-range correlations from a finite amount of data by means of DFA is not specific. When aiming to infer short memory by means of DFA, a local slope larger than $\alpha=0.5$ for large scales does not necessarily imply long-memory. Also, a finite scaling of the autocorrelation function is shifted to larger scales in the fluctuation function. It turns out that long-range correlations cannot be concluded unambiguously from the DFA results for the Prague temperature data set. In the second part of the thesis, an equivalence class of nonstationary Gaussian stochastic processes is defined in the wavelet domain. These processes are characterized by means of wavelet multipliers and exhibit well defined time dependent spectral properties; they allow one to generate realizations of any nonstationary Gaussian process. The dependency of the realizations on the wavelets used for the generation is studied, bias and variance of the wavelet sample spectrum are calculated. To overcome the difficulties of multiple testing, an areawise significance test is developed and compared to the conventional pointwise test in terms of sensitivity and specificity. Applications to Climatological and Hydrological questions are presented. The thesis at hand mainly aims to contribute to methodological questions of time series analysis and to apply the investigated methods to recent climatological problems. In the last part, the coupling between El Nino/Southern Oscillation (ENSO) and the Indian Monsoon on inter-annual time scales is studied by means of Hilbert transformation and a curvature defined phase. This method allows one to investigate the relation of two oscillating systems with respect to their phases, independently of their amplitudes. The performance of the technique is evaluated using a toy model. From the data, distinct epochs are identified, especially two intervals of phase coherence, 1886-1908 and 1964-1980, confirming earlier findings from a new point of view. A significance test of high specificity corroborates these results. Also so far unknown periods of coupling invisible to linear methods are detected. These findings suggest that the decreasing correlation during the last decades might be partly inherent to the ENSO/Monsoon system. Finally, a possible interpretation of how volcanic radiative forcing could cause the coupling is outlined. N2 - Seit der Erfindung des Thermometers durch Galileo Galilei versuchen Forscher mit naturwissenschaftlichen Methoden die komplexen Zusammenhänge in der Atmosphäre und den Ozeanen zu entschlüsseln. Sie beobachten die Natur und stellen Theorien über das Klimasystem auf. Seit wenigen Jahrzehnten werden sie dabei von immer leistungsfähigeren Computern unterstützt, die das Klima der Erdgeschichte und der nahen Zukunft simulieren. Die Verbindung aus den Beobachtungen und den Modellen versucht die Zeitreihen­analyse herzustellen: Aus den Daten werden mit statistischen Methoden charak­teristische Eigenschaften der zugrundeliegenden klimatologischen Prozesse geschätzt, die dann in die Modelle einfliessen können. Die Bewertung solch einer Schätzung, die stets Messfehlern und Vereinfachungen des Modells unterworfen ist, erfolgt statistisch entweder mittels Konfidenzintervallen oder Signifikanztests. Solche Tests sollen auf der einen Seite charakteristische Eigenschaften in den Daten erkennen können, d.h. sie sollen sensitiv sein. Auf der anderen Seite sollen sie jedoch auch keine Eigenschaften vortäuschen, d.h. sie sollen spezifisch sein. Für die vertrauenswürdige Untermauerung einer Hypothese ist also ein spezifischer Test erforderlich. Die vorliegende Arbeit untersucht verschiedene Methoden der Zeitreihenanalyse, erweitert sie gegebenenfalls und wendet sie auf typische klimatologische Frage­stellungen an. Besonderes Augenmerk wird dabei auf die Spezifizität der jeweiligen Methode gelegt; die Grenzen möglicher Folgerungen mittels Datenanalyse werden diskutiert. Im ersten Teil der Arbeit wird studiert, wie und ob sich mithilfe der sogenannten trendbereinigenden Fluktuationsanalyse aus Temperaturzeitreihen ein sogenanntes langes Gedächtnis der zugrundeliegenden Prozesse herleiten lässt. Solch ein Gedächtnis bedeutet, dass der Prozess seine Vergangenheit nie vergisst, mit fundamentalen Auswirkungen auf die gesamte statistische Beurteilung des Klimasystems. Diese Arbeit konnte jedoch zeigen, dass die Analysemethode vollkommen unspezifisch ist und die Hypothese “Langes Gedächtnis” gar nicht abgelehnt werden kann. Im zweiten Teil werden zunächst Mängel einer sehr populären Analysemethode, der sogenannten kontinuierlichen Waveletspetralanalyse diskutiert. Diese Methode schätzt die Variabilität eines Prozesses auf verschiedenen Schwingungsperioden zu bestimm­ten Zeiten. Ein wichtiger Nachteil der bisherigen Methodik sind auch hier unspezi­fische Signifikanztests. Ausgehend von der Diskussion wird eine Theorie der Wavelet­spektralanalyse entwickelt, die ein breites Feld an neuen Anwendungen öffnet. Darauf basierend werden spezifische Signifikanztests konstruiert. Im letzten Teil der Arbeit wird der Einfluss des El Niño/Southern Oscillation Phäno­mens auf den Indischen Sommermonsun analysiert. Es wird untersucht, ob und wann die Oszillationen beider Phänomene synchron ablaufen. Dazu wird eine etablierte Methode für die speziellen Bedürfnisse der Analyse von typischerweise sehr unregel­mäßigen Klimadaten erweitert. Mittels eines spezifischen Signifikanztests konnten bisherige Ergebnisse mit erhöhter Genauigkeit bestätigt werden. Zusätzlich konnte diese Methode jedoch auch neue Kopplungsintervalle feststellen, die die Hypothese entkräften konnten, dass ein neuerliches Verschwinden der Kopplung ein beisspielloser Vorgang sei. Schliesslich wird eine Hypothese vorgestellt, wie vulkanische Aerosole die Kopplung beeinflussen könnten. KW - Spektralanalyse KW - Monsun KW - Klimatologie KW - Zeitreihenanalyse KW - Wavelet-Analyse KW - El-Niño-Phänomen KW - Kopplungs-Analyse KW - Kohärenz-Analyse KW - Phasen-Analyse KW - Signifikanztests KW - Continuous Wavelet Spectral Analysis KW - Wavelet Coherence KW - Phase-Analysis KW - Significance Testing KW - Climatology Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-9047 ER - TY - THES A1 - Bhattacharryya, Saroj Kumar T1 - Development of detector for analytical ultracentrifuge. - [korr. Fassung] T1 - Detektor-Entwicklung für die analytische Ultrazentrifuge. - [korr. Fassung] N2 - In this work approaches for new detection system development for an Analytical Ultracentrifuge (AUC) were explored. Unlike its counterpart in chromatography fractionation techniques, the use of a Multidetection system for AUC has not yet been implemented to full extent despite its potential benefit. In this study we tried to couple existing fundamental spectroscopic and scattering techniques that are used in day to day science as tool for extracting analyte information. Trials were performed for adapting Raman, Light scattering and UV/Vis (with possibility to work with the whole range of wavelengths) to AUC. Conclusions were drawn for Raman and Light scattering to be a possible detection system for AUC, while the development for a fast fiber optics based multiwavelength detector was completed. The multiwavelength detector demonstrated the capability of data generation matching the literature and reference measurement data and faster data collection than that of the commercial instrument. It became obvious that with the generation of data in 3-D space in the UV/Vis detection system, the user can select the wavelength for the evaluation of experimental results as the data set contains the whole range of information from UV/Vis wavelength. The detector showed the data generation with much faster speed unlike the commercial instruments. The advantage of fast data generation was exemplified with the evaluation of data for a mixture of three colloids. These data were in conformity with measurement results from normal radial experiments and without significant diffusion broadening. Thus conclusions were drawn that with our designed Multiwavelength detector, meaningful data in 3-D space can be collected with much faster speed of data generation. N2 - In der vorliegenden Arbeit wurde die Entwicklung neuer Detektoren für die Analytische Ultrazentrifugation (AUZ) untersucht und vorangetrieben. Im Gegensatz zu chromatgraphischen. Fraktionierungsmethoden werden Multidetektionssysteme bis heute nicht in der AUZ eingesetzt. Hier wird die Möglichkeit geprüft, bekannte spektroskopische sowie Streumethoden simultan zur Probenanalyse in der AUZ einzusetzen mit dem Ziel, simultan komplimentäre Informationen über die Probe zu erhalten. So wurde versucht, Raman- und UV/VIS-Spektroskopie (letztere mit der Möglichkeit, das gesamte Wellenlängenspektrum auszunutzen) und statische Lichtstreuung zu kombinieren, um das Analytverhalten während des Ultrazentrifugationsexperimentes zu untersuchen. Es wurden zum einen die Ramanspektroskopie als Detektionssystem für chemische Funktionalität in der AUZ geprüft und zum anderen gezeigt, daß die statische Kleinwinkel Lichtstreuung als direkter Molmassendetektor für den Einsatz in der AUZ geeignet erscheint. Zum anderen wurde die Entwicklung eines Multi-Wellenlängen-UV/VIS-Detektors abgeschlossen, um seine Eignung für den Einsatz in der AUZ und die damit verbundene Möglichkeiten der schnelleren und umfassenderen Datenerzeugung gegenüber kommerziellen Geräten zu zeigen. Dieser Multiwellendetektor liefert anstelle eines Absorptionswertes für jede radiale Position in der Messzelle direkt ein ganzes UV-Vis Spektrum und erzeugt eine zusaetzliche Dimension der Messdaten, was die Möglichkeiten der Analyse von komplexen Systemen mit multiplen Chromophoren, Teilchengrößenbestimmung über Wellenlängenabhängigkeit der Trübung oder auch der Datenmittelung enorm vergrößert. Desweiteren erlaubt der Detektor die Anwendung von Geschwindigkeitsprofilen zur Analyse extrem polydisperser Systeme. Die Entwicklung des Detektors beruht auf einem auf Linsen basierenden System mit modularem Aufbau. Dabei war die sorgfältige Ausrichtung des optischen Systems ein essentieller Punkt, um seine Eignung zu überprüfen zu können. An einer Mischung von drei Kolloiden, Halbleiternanopartikeln sowie Proteinen und deren Mischungen ist es hier gelungen, die erfolgreiche Entwicklung des UV/VIS-Detektors zu demonstrieren: Die Daten konnten schneller und mit wesentlich mehr Informationsgehalt, als auf allen kommerziellen Geräten generiert werden. Die Sedimentationskoeffizientenverteilungen stimmen dabei mit denen aus herkömmlichen Sedimentationsgeschwindigkeitsexperimenten überein, unterliegen jedoch nicht einer signifikanten diffusionsbedingten Verbreiterung. Es ist in dieser Arbeit somit gelungen, zum einen die Lichtstreuung als aussichtsreiche Methode für ein Detektorsystem in der AUZ aufzuzeigen, und zum anderen einen Multi-Wellenlängen-UV/VIS-Detektor zu entwickeln, der eine Datenerzeugung von bislang noch nicht erreichter Schnelligkeit im dreidimensionalen Raum ermöglicht. KW - Ultrazentrifuge KW - Detektor KW - Detektor-Entwicklung KW - SLS KW - UV/VIS KW - Raman KW - detector development KW - SLS KW - UV/VIS KW - Raman Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-8215 ER - TY - THES A1 - Rößler, Dirk T1 - Retrieval of earthquake source parameters in inhomogeneous anisotropic mediawith application to swarm events in West Bohemia in 2000 T1 - Bestimmung von Erdbebenparametern in inhomogenen anisotropen Medien mit Anwendung auf Schwarmbeben im Vogtland im Jahr 2000 N2 - Earthquakes form by sudden brittle failure of rock mostly as shear ruptures along a rupture plane. Beside this, mechanisms other than pure shearing have been observed for some earthquakes mainly in volcanic areas. Possible explanations include complex rupture geometries and tensile earthquakes. Tensile earthquakes occur by opening or closure of cracks during rupturing. They are likely to be often connected with fluids that cause pressure changes in the pore space of rocks leading to earthquake triggering. Tensile components have been reported for swarm earthquakes in West Bohemia in 2000. The aim and subject of this work is an assessment and the accurate determination of such tensile components for earthquakes in anisotropic media. Currently used standard techniques for the retrieval of earthquake source mechanisms assume isotropic rock properties. By means of moment tensors, equivalent forces acting at the source are used to explain the radiated wavefield. Conversely, seismic anisotropy, i.e. directional dependence of elastic properties, has been observed in the earth's crust and mantle such as in West Bohemia. In comparison to isotropy, anisotropy causes modifications in wave amplitudes and shear-wave splitting. In this work, effects of seismic anisotropy on true or apparent tensile source components of earthquakes are investigated. In addition, earthquake source parameters are determined considering anisotropy. It is shown that moment tensors and radiation patterns due to shear sources in anisotropic media may be similar to those of tensile sources in isotropic media. In contrast, similarities between tensile earthquakes in anisotropic rocks and shear sources in isotropic media may exist. As a consequence, the interpretation of tensile source components is ambiguous. The effects that are due to anisotropy depend on the orientation of the earthquake source and the degree of anisotropy. The moment of an earthquake is also influenced by anisotropy. The orientation of fault planes can be reliably determined even if isotropy instead of anisotropy is assumed and if the spectra of the compressional waves are used. Greater difficulties may arise when the spectra of split shear waves are additionally included. Retrieved moment tensors show systematic artefacts. Observed tensile source components determined for events in West Bohemia in 1997 can only partly be attributed to the effects of moderate anisotropy. Furthermore, moment tensors determined earlier for earthquakes induced at the German Continental Deep Drilling Program (KTB), Bavaria, were reinterpreted under assumptions of anisotropic rock properties near the borehole. The events can be consistently identified as shear sources, although their moment tensors comprise tensile components that are considered to be apparent. These results emphasise the necessity to consider anisotropy to uniquely determine tensile source parameters. Therefore, a new inversion algorithm has been developed, tested, and successfully applied to 112 earthquakes that occurred during the most recent intense swarm episode in West Bohemia in 2000 at the German-Czech border. Their source mechanisms have been retrieved using isotropic and anisotropic velocity models. Determined local magnitudes are in the range between 1.6 and 3.2. Fault-plane solutions are similar to each other and characterised by left-lateral faulting on steeply dipping, roughly North-South oriented rupture planes. Their dip angles decrease above a depth of about 8.4km. Tensile source components indicating positive volume changes are found for more than 60% of the considered earthquakes. Their size depends on source time and location. They are significant at the beginning of the swarm and at depths below 8.4km but they decrease in importance later in the course of the swarm. Determined principle stress axes include P axes striking Northeast and Taxes striking Southeast. They resemble those found earlier in Central Europe. However, depth-dependence in plunge is observed. Plunge angles of the P axes decrease gradually from 50° towards shallow angles with increasing depth. In contrast, the plunge angles of the T axes change rapidly from about 8° above a depth of 8.4km to 21° below this depth. By this thesis, spatial and temporal variations in tensile source components and stress conditions have been reported for the first time for swarm earthquakes in West Bohemia in 2000. They also persist, when anisotropy is assumed and can be explained by intrusion of fluids into the opened cracks during tensile faulting. N2 - Erdbeben entstehen durch plötzlichen Sprödbruch des Gesteins, meist als Scherbruch entlang einer Bruchfläche. Daneben werden für einige Beben v.a. in vulkanischen Gebieten auch Mechanismen beobachtet, die scheinbar vom Modell des Scherbruches abweichen. Ursachen dafür beinhalten komplexe Bruchgeometrien und tensile Erdbeben. Bei tensilen Erdbeben kommt es während des Bruchs zum Öffnen oder Schließen der Bruchfläche und damit zu Volumenänderungen. Erdbeben mit tensilen Anteilen stehen wahrscheinlich oft im Zusammenhang mit Fluiden, welche zur Durckänderung im Porenraum von Gesteinen und damit zum Auslösen des Bebens führen. Sie wurden auch im Vogtland während eines Erdbebenschwarms im Jahr 1997 beobachtet. Die Beurteilung und sichere Bestimmung tensiler Anteile von Erdbeben sind Ziel und Gegenstand dieser Arbeit. Bei Standardverfahren zur Bestimmung von Erdbebenmechanismen werden isotrope Gesteinseigenschaften angenommen. Momententensoren beschreiben dabei Kräfte, die das abgestrahlte Wellenfeld erklären. Allerdings wird seismische Anisotropie, d.h. Richtungsabhängigkeit elastischer Eigenschaften, in der Erdkruste und im Mantel wie z.B. im Vogtland beobachtet. Anisotropie bewirkt im Vergleich zu isotropen Medien Veränderungen der Wellenamplituden und -polariserungen sowie das Aufspalten von Scherwellen. In der vorliegenden Arbeit werden daher der Einfluss seismischer Anisotropie auf wahre oder scheinbar auftretende tensile Quellanteile untersucht und Erdbebenmechanismen unter Berücksichtigung seismischer Anisotropie bestimmt. Es wird gezeigt, dass Momententensoren und Abstrahlmuster von Scherbrüchen in anisotropen Medien denen von tensilen Brüchen in isotropen Medien ähneln können. Umgekehrt treten Ähnlichkeiten tensiler Beben in anisotropen Gesteinen mit Scherbrüchen in isotropen Medien auf. Damit existieren Mehrdeutigkeiten beobachteter tensiler Quellanteile. Die Effekte von Anisotropie hängen von der Orientierung des Bruches und vom Grad der Anisotropie ab. Außerdem beeinflusst Anisotropie das Moment eines Bebens. Herdflächenorientierungen können auch dann verlässlich bestimmt werden, wenn man Isotropie statt Anisotropie annimmt und die Spektren von Kompressionswellen verwendet. Bei Hinzunahme der Spektren von Scherwellen können Uneindeutigkeiten auftreten. Abgeleitete Momententensoren zeigen systematische Artefakte. Beobachtungen tensiler Quellanteile von Beben im Vogtland im Jahr 1997 können nicht allein durch moderate Anisotropie erklärt werden. Weiterhin wurden früher bestimmte Momententensoren induzierter Beben nahe der Kontinentalen Tiefbohrung, Bayern, unter Annahme anisotroper Parameter reinterpretiert. Die Beben werden einheitlich als Scherbrüche charakterisiert, obwohl deren Momententensoren tensile Bestandteile enthalten, die als scheinbar angesehen werden. Die Resultate unterstreichen die Notwendigkeit, seismische Anisotropie zu berücksichtigen, um tensile Komponenten von Erdbeben eindeutig zu bestimmen. Ein daher neu entwickelter Inversionsalgorithmus wurde getestet und erfolgreich auf 112 Erdbeben der letzten intensiven Schwarmepisode im Jahr 2000 im Vogtland an der deutsch-tschechischen Grenze angewandt. Die Herdparameter wurden unter Verwendung isotroper und anisotroper Geschwindigkeitsmodelle ermittelt. Die Beben zeigen Lokalmagnituden zwischen 1,6 und 3,2. Sie weisen zueinander ähnliche Herdflächenlösungen mit linkslateralem Versatz auf steil einfallenden, etwa Nord-Süd orientierten Bruchflächen auf. Die Fallwinkel nehmen oberhalb 8,4km Tiefe ab. Für über 60% der betrachteten Erdbeben werden tensile Quellanteile mit Volumenvergrößerung beobachtet. Die tensilen Komponenten zeigen Abhängigkeiten von Herdzeit und -ort. Sie sind zu Beginn des Schwarms sowie in Tiefen unterhalb 8,4km besonders signifikant und nehmen später an Bedeutung ab. Abgeleitete Hauptspannungsachsen enthalten P Achsen mit nordwestlicher und T Achsen mit südwestlicher Streichrichtung. Sie ähneln denen in Mitteleuropa. Es werden tiefenabhängige Fallwinkel beobachtet. Die Änderungen erfolgen für die P Achsen graduell von 50° hin zu flacheren Fallwinkeln bei tieferen Beben. Sie erfolgen jedoch abrupt für die T Achsen von etwa 8° oberhalb einer Tiefe von etwa 8,4km zu 21° einfallend unterhalb dessen. Mit dieser Arbeit werden erstmals zeitliche und räumliche Veränderungen tensiler Quellanteile und Spannungszustände im Vogtland für Erdbeben im Jahr 2000 beobachtet. Diese haben auch dann Bestand, wenn seismische Anisotropie berücksichtigt wird. Sie können durch Fluide erklärt werden, die in die Bruchflächen eindringen. KW - Seismologie KW - Momententensor KW - Anisotropie KW - Erdbeben KW - Wellenausbreitung KW - Vogtland KW - Schwarmbeben KW - tensile Anteile KW - Hauptspannungsachse KW - earthquake swarm KW - anisotropy KW - tensile earthquakes KW - moment tensor KW - West Bohemia Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7758 ER - TY - THES A1 - Sorrel, Philippe T1 - The Aral Sea : a palaeoclimate archive T1 - Der Aralsee : ein Paläoklimaarchiv N2 - The intracontinental endorheic Aral Sea, remote from oceanic influences, represents an excellent sedimentary archive in Central Asia that can be used for high-resolution palaeoclimate studies. We performed palynological, microfacies and geochemical analyses on sediment cores retrieved from Chernyshov Bay, in the NW part of the modern Large Aral Sea. The most complete sedimentary sequence, whose total length is 11 m, covers approximately the past 2000 years of the late Holocene. High-resolution palynological analyses, conducted on both dinoflagellate cysts assemblages and pollen grains, evidenced prominent environmental change in the Aral Sea and in the catchment area. The diversity and the distribution of dinoflagellate cysts within the assemblages characterized the sequence of salinity and lake-level changes during the past 2000 years. Due to the strong dependence of the Aral Sea hydrology to inputs from its tributaries, the lake levels are ultimately linked to fluctuations in meltwater discharges during spring. As the amplitude of glacial meltwater inputs is largely controlled by temperature variations in the Tien Shan and Pamir Mountains during the melting season, salinity and lake-level changes of the Aral Sea reflect temperature fluctuations in the high catchment area during the past 2000 years. Dinoflagellate cyst assemblages document lake lowstands and hypersaline conditions during ca. 0–425 AD, 920–1230 AD, 1500 AD, 1600–1650 AD, 1800 AD and since the 1960s, whereas oligosaline conditions and higher lake levels prevailed during the intervening periods. Besides, reworked dinoflagellate cysts from Palaeogene and Neogene deposits happened to be a valuable proxy for extreme sheet-wash events, when precipitation is enhanced over the Aral Sea Basin as during 1230–1450 AD. We propose that the recorded environmental changes are related primarily to climate, but may have been possibly amplified during extreme conditions by human-controlled irrigation activities or military conflicts. Additionally, salinity levels and variations in solar activity show striking similarities over the past millennium, as during 1000–1300 AD, 1450–1550 and 1600–1700 AD when low lake levels match well with an increase in solar activity thus suggesting that an increase in the net radiative forcing reinforced past Aral Sea’s regressions. On the other hand, we used pollen analyses to quantify changes in moisture conditions in the Aral Sea Basin. High-resolution reconstruction of precipitation (mean annual) and temperature (mean annual, coldest versus warmest month) parameters are performed using the “probability mutual climatic spheres” method, providing the sequence of climate change for the past 2000 years in western Central Asia. Cold and arid conditions prevailed during ca. 0–400 AD, 900–1150 AD and 1500–1650 AD with the extension of xeric vegetation dominated by steppe elements. Conversely, warmer and less arid conditions occurred during ca. 400–900 AD and 1150–1450 AD, where steppe vegetation was enriched in plants requiring moister conditions. Change in the precipitation pattern over the Aral Sea Basin is shown to be predominantly controlled by the Eastern Mediterranean (EM) cyclonic system, which provides humidity to the Middle East and western Central Asia during winter and early spring. As the EM is significantly regulated by pressure modulations of the North Atlantic Oscillation (NAO) when the system is in a negative phase, a relationship between humidity over western Central Asia and the NAO is proposed. Besides, laminated sediments record shifts in sedimentary processes during the late Holocene that reflect pronounced changes in taphonomic dynamics. In Central Asia, the frequency of dust storms occurring during spring when the continent is heating up is mostly controlled by the intensity and the position of the Siberian High (SH) Pressure System. Using titanium (Ti) content in laminated sediments as a proxy for aeolian detrital inputs, changes in wind dynamics over Central Asia is documented for the past 1500 years, offering the longest reconstruction of SH variability to date. Based on high Ti content, stronger wind dynamics are reported from 450–700 AD, 1210–1265 AD, 1350–1750 AD and 1800–1975 AD, reporting a stronger SH during spring. In contrast, lower Ti content from 1750–1800 AD and 1980–1985 AD reflect a diminished influence of the SH and a reduced atmospheric circulation. During 1180–1210 AD and 1265–1310 AD, considerably weakened atmospheric circulation is evidenced. As a whole, though climate dynamics controlled environmental changes and ultimately modulated changes in the western Central Asia’s climate system, it is likely that changes in solar activity also had an impact by influencing to some extent the Aral Sea’s hydrology balance and also regional temperature patterns in the past.
The appendix of the thesis is provided via the HTML document as ZIP download. N2 - Der Aralsee ist ein intrakontinental gelegenes endorheisches Gewässer fernab von ozeanischen Einflüssen, welches ein exzellentes sedimentäres Archiv für hochauflösende Paläoklimastudien in Zentralasien darstellt. In der vorliegenden Studie wurden umfangreiche palynologische, mikrofazielle und geochemische Analysen anhand von mehreren Bohrkernen aus der Chernyshov-Bucht im NW des heutigen Großen Aralsees durchgeführt. Die vollständigste der erbohrten Sequenzen weist dabei eine Länge von 11 m auf und beinhaltet näherungsweise die letzten 2000 Jahre des Holozän. Die hochauflösenden palynologischen Analysen der Studie, welche sowohl die Untersuchung von Dinoflagellatenzysten als auch Pollen beinhaltet, zeugen von einschneidenden Umweltveränderungen im Aralsee und seinem Einzugsgebiet. Die Untersuchung von Diversität und räumlicher Verbreitung der fossilen Dinoflagellatenzysten vermittelt dabei ein genaues Bild von den Salinitäts- und Seespiegeländerungen der letzten 2000 Jahre. Aufgrund der weitgehenden Abhängigkeit der hydrologischen Verhältnisse des Aralsees von der Wasserführung seinen tributären Flüsse, hängt sein Seespiegel unmittelbar von den Schmelzwasserzuflüssen im Frühjahr ab. Da der Schmelzwasserzufluss seinerseits mit den Temperaturveränderungen im Tien Shan und Pamir während der Schneeschmelze in Verbindung steht, spiegeln die Paläo-Salinität und der Paläo-Seespiegel des Aralsees folglich die Temperaturveränderungen im hochgelegenen Einzugsgebiet des Aralsees wider. Die Untersuchung der fossilen Dinoflagellatenzysten belegt besonders niedrige Seestände und hypersaline Bedingungen während der Perioden 0–425 AD, 920–1230 AD, 1500 AD, 1600 AD, 1800 AD und seit 1960, wohingegen oligohaline Bedingungen und höhere Seestände zwischen diesen Phasen dokumentiert sind. Ferner stellen umgelagerte Dinoflagellatenzysten aus Paläogenen und Neogenen Ablagerungen wertvolle Proxies für den Beleg von extremen Flächenspülereignissen dar, wie sie beispielsweise 1230–1450 AD aufgetreten und durch sehr hohe Niederschläge dokumentiert sind. Anhand der in der Studie erarbeiteten Daten ist davon auszugehen, dass die am Aralsee nachgewiesenen Umweltveränderungen im Wesentlichen von klimatischen Änderungen induziert wurden, durch historischen Bewässerungsfeldbau oder militärischen Konflikten jedoch noch verstärkt werden konnten. Darüber hinaus zeigen die Seestandsveränderungen eine sehr hohe Korrelation mit der Sonnenaktivität im letzten Jahrtausend, wie etwa während den Perioden 1000–1300 AD, 1450–1550 und 1600–1700 AD. Komplementär zu der Untersuchung von Dinoflagellatenzysten liefert die Pollenanalyse wertvolle Klimadaten für das Becken des Aralsees. Verschiedene Temperatur- (Jahresmittel, kältester gegen wärmster Monat) und Niederschlagsparameter wurden mit Hilfe der Methode der „probability mutual climatic spheres“ quantitative ausgewertet, womit die Klimaentwicklung im westlichen Zentralasien der letzten 2000 Jahre nachvollzogen werden konnte. Kalte und aride Bedingungen wiesen demnach die durch trockenangepasste Vegetation und Steppenelementen geprägten Perioden 0–400 AD, 900–1150 AD und 1500–1650 AD auf. Andererseits traten warme und weniger aride Klimabedingungen in den durch niederschlagsbedürftigere Pflanzen gekennzeichneten Zeiträumen 400–900 AD and 1150–1450 AD in den Vordergrund. Die Studie zeigt für das Becken des Aralsees, dass die Veränderungen im Niederschlagsmuster hauptsächlich vom zyklonalen System des östlichen Mittelmeergebietes (EM) gesteuert werden, welches den nahen Osten und das westliche Zentralasien mit Feuchtigkeit im Winter und Frühjahr versorgt. Da seinerseits das EM maßgeblich von Luftdruckänderungen der Nordatlantischen Oszillation (NAO) während seiner negativen Phase reguliert wird, ist ein Zusammenhang zwischen der Feuchtigkeit im westlichen Zentralasien und dem NAO anzunehmen. Außerdem belegen die laminierten Sedimente Veränderungen in den Sedimentationsprozessen während des späten Holozän, sowie ausgeprägte Änderungen im taphonomischen Verhalten. In Zentralasien hängt die Häufigkeit der im Frühjahr auftretenden Staubstürme hauptsächlich von der Intensität und der Position des Sibirienhochs (SH) ab. Der Gehalt an Titanium (Ti) als Proxy für äolischen Eintrag in den laminierten Sedimenten erlaubt die Rekonstruktion von winddynamischen Veränderungen in Zentralasien in den letzten 1500 Jahren. Die Studie beinhaltet daher die bislang längste Analyse der Variabilität des SH. Hohe Titaniumwerte sprechen für eine stärkere Winddynamik während den Perioden 450–700 AD, 1210–1265 AD, 1350–1750 AD und 1800–1975 AD, und dokumentieren demzufolge eine stärker ausgeprägtes SH während des Frühjahrs. Umgekehrt belegen geringe Titaniumwerte für die Zeit von 1180–1210 AD, 1265–1310 AD, 1750–1800 AD und 1980–1985 AD einen reduzierten Einfluss des SH. T2 - The Aral Sea : a palaeoclimate archive KW - Aralsee KW - spätes Holozän KW - Klimaveränderung KW - Seestandsänderung KW - Dinoflagellatenzyste KW - Pollenanalyse KW - Winddynamik KW - Zentralasien KW - Mediterranes Tiefdrucksystem KW - Sibirienhoch KW - Vegetation KW - NAO KW - Aral Sea KW - late holocene KW - climatic change KW - lake-level change KW - Central Asia Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7807 ER - TY - THES A1 - Scholz, Matthias T1 - Approaches to analyse and interpret biological profile data T1 - Methoden zur Analyse und Interpretation biologischer Profildaten N2 - Advances in biotechnologies rapidly increase the number of molecules of a cell which can be observed simultaneously. This includes expression levels of thousands or ten-thousands of genes as well as concentration levels of metabolites or proteins. Such Profile data, observed at different times or at different experimental conditions (e.g., heat or dry stress), show how the biological experiment is reflected on the molecular level. This information is helpful to understand the molecular behaviour and to identify molecules or combination of molecules that characterise specific biological condition (e.g., disease). This work shows the potentials of component extraction algorithms to identify the major factors which influenced the observed data. This can be the expected experimental factors such as the time or temperature as well as unexpected factors such as technical artefacts or even unknown biological behaviour. Extracting components means to reduce the very high-dimensional data to a small set of new variables termed components. Each component is a combination of all original variables. The classical approach for that purpose is the principal component analysis (PCA). It is shown that, in contrast to PCA which maximises the variance only, modern approaches such as independent component analysis (ICA) are more suitable for analysing molecular data. The condition of independence between components of ICA fits more naturally our assumption of individual (independent) factors which influence the data. This higher potential of ICA is demonstrated by a crossing experiment of the model plant Arabidopsis thaliana (Thale Cress). The experimental factors could be well identified and, in addition, ICA could even detect a technical artefact. However, in continuously observations such as in time experiments, the data show, in general, a nonlinear distribution. To analyse such nonlinear data, a nonlinear extension of PCA is used. This nonlinear PCA (NLPCA) is based on a neural network algorithm. The algorithm is adapted to be applicable to incomplete molecular data sets. Thus, it provides also the ability to estimate the missing data. The potential of nonlinear PCA to identify nonlinear factors is demonstrated by a cold stress experiment of Arabidopsis thaliana. The results of component analysis can be used to build a molecular network model. Since it includes functional dependencies it is termed functional network. Applied to the cold stress data, it is shown that functional networks are appropriate to visualise biological processes and thereby reveals molecular dynamics. N2 - Fortschritte in der Biotechnologie ermöglichen es, eine immer größere Anzahl von Molekülen in einer Zelle gleichzeitig zu erfassen. Das betrifft sowohl die Expressionswerte tausender oder zehntausender Gene als auch die Konzentrationswerte von Metaboliten oder Proteinen. Diese Profildaten verschiedener Zeitpunkte oder unterschiedlicher experimenteller Bedingungen (z.B. unter Stressbedingungen wie Hitze oder Trockenheit) zeigen, wie sich das biologische Experiment auf molekularer Ebene widerspiegelt. Diese Information kann genutzt werden, um molekulare Abläufe besser zu verstehen und um Moleküle oder Molekül-Kombinationen zu bestimmen, die für bestimmte biologische Zustände (z.B.: Krankheit) charakteristisch sind. Die Arbeit zeigt die Möglichkeiten von Komponenten-Extraktions-Algorithmen zur Bestimmung der wesentlichen Faktoren, die einen Einfluss auf die beobachteten Daten ausübten. Das können sowohl die erwarteten experimentellen Faktoren wie Zeit oder Temperatur sein als auch unerwartete Faktoren wie technische Einflüsse oder sogar unerwartete biologische Vorgänge. Unter der Extraktion von Komponenten versteht man die Reduzierung dieser stark hoch-dimensionalen Daten auf wenige neue Variablen, die eine Kombination aus allen ursprünglichen Variablen darstellen und als Komponenten bezeichnet werden. Die Standard-Methode für diesen Zweck ist die Hauptkomponentenanalyse (PCA). Es wird gezeigt, dass - im Vergleich zur nur die Varianz maximierenden PCA - moderne Methoden wie die Unabhängige Komponentenanalyse (ICA) für die Analyse molekularer Datensätze besser geeignet sind. Die Unabhängigkeit von Komponenten in der ICA entspricht viel besser unserer Annahme individueller (unabhängiger) Faktoren, die einen Einfluss auf die Daten ausüben. Dieser Vorteil der ICA wird anhand eines Kreuzungsexperiments mit der Modell-Pflanze Arabidopsis thaliana (Ackerschmalwand) demonstriert. Die experimentellen Faktoren konnten dabei gut identifiziert werden und ICA erkannte sogar zusätzlich einen technischen Störfaktor. Bei kontinuierlichen Beobachtungen wie in Zeitexperimenten zeigen die Daten jedoch häufig eine nichtlineare Verteilung. Für die Analyse dieser nichtlinearen Daten wird eine nichtlinear erweiterte Methode der PCA angewandt. Diese nichtlineare PCA (NLPCA) basiert auf einem neuronalen Netzwerk-Algorithmus. Der Algorithmus wurde für die Anwendung auf unvollständigen molekularen Daten erweitert. Dies ermöglicht es, die fehlenden Werte zu schätzen. Die Fähigkeit der nichtlinearen PCA zur Bestimmung nichtlinearer Faktoren wird anhand eines Kältestress-Experiments mit Arabidopsis thaliana demonstriert. Die Ergebnisse aus der Komponentenanalyse können zur Erstellung molekularer Netzwerk-Modelle genutzt werden. Da sie funktionelle Abhängigkeiten berücksichtigen, werden sie als Funktionale Netzwerke bezeichnet. Anhand der Kältestress-Daten wird demonstriert, dass solche funktionalen Netzwerke geeignet sind, biologische Prozesse zu visualisieren und dadurch die molekularen Dynamiken aufzuzeigen. KW - Bioinformatik KW - Hauptkomponentenanalyse KW - Unabhängige Komponentenanalyse KW - Neuronales Netz KW - Maschinelles Lernen KW - Fehlende Daten KW - Ackerschmalwand KW - nichtlineare PCA (NLPCA) KW - molekulare Netzwerke KW - nonlinear PCA (NLPCA) KW - molecular networks Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7839 ER - TY - THES A1 - Schneider von Deimling, Thomas T1 - Constraining uncertainty in climate sensitivity : an ensemble simulation approach based on glacial climate T1 - Einschränkung der Unsicherheit in der Klimasensitivität : ein Ensemble Simulationsansatz basierend auf dem glazialen Klima N2 - Uncertainty about the sensitivity of the climate system to changes in the Earth’s radiative balance constitutes a primary source of uncertainty for climate projections. Given the continuous increase in atmospheric greenhouse gas concentrations, constraining the uncertainty range in such type of sensitivity is of vital importance. A common measure for expressing this key characteristic for climate models is the climate sensitivity, defined as the simulated change in global-mean equilibrium temperature resulting from a doubling of atmospheric CO2 concentration. The broad range of climate sensitivity estimates (1.5-4.5°C as given in the last Assessment Report of the Intergovernmental Panel on Climate Change, 2001), inferred from comprehensive climate models, illustrates that the strength of simulated feedback mechanisms varies strongly among different models. The central goal of this thesis is to constrain uncertainty in climate sensitivity. For this objective we first generate a large ensemble of model simulations, covering different feedback strengths, and then request their consistency with present-day observational data and proxy-data from the Last Glacial Maximum (LGM). Our analyses are based on an ensemble of fully-coupled simulations, that were realized with a climate model of intermediate complexity (CLIMBER-2). These model versions cover a broad range of different climate sensitivities, ranging from 1.3 to 5.5°C, and have been generated by simultaneously perturbing a set of 11 model parameters. The analysis of the simulated model feedbacks reveals that the spread in climate sensitivity results from different realizations of the feedback strengths in water vapour, clouds, lapse rate and albedo. The calculated spread in the sum of all feedbacks spans almost the entire plausible range inferred from a sampling of more complex models. We show that the requirement for consistency between simulated pre-industrial climate and a set of seven global-mean data constraints represents a comparatively weak test for model sensitivity (the data constrain climate sensitivity to 1.3-4.9°C). Analyses of the simulated latitudinal profile and of the seasonal cycle suggest that additional present-day data constraints, based on these characteristics, do not further constrain uncertainty in climate sensitivity. The novel approach presented in this thesis consists in systematically combining a large set of LGM simulations with data information from reconstructed regional glacial cooling. Irrespective of uncertainties in model parameters and feedback strengths, the set of our model versions reveals a close link between the simulated warming due to a doubling of CO2, and the cooling obtained for the LGM. Based on this close relationship between past and future temperature evolution, we define a method (based on linear regression) that allows us to estimate robust 5-95% quantiles for climate sensitivity. We thus constrain the range of climate sensitivity to 1.3-3.5°C using proxy-data from the LGM at low and high latitudes. Uncertainties in glacial radiative forcing enlarge this estimate to 1.2-4.3°C, whereas the assumption of large structural uncertainties may increase the upper limit by an additional degree. Using proxy-based data constraints for tropical and Antarctic cooling we show that very different absolute temperature changes in high and low latitudes all yield very similar estimates of climate sensitivity. On the whole, this thesis highlights that LGM proxy-data information can offer an effective means of constraining the uncertainty range in climate sensitivity and thus underlines the potential of paleo-climatic data to reduce uncertainty in future climate projections. N2 - Eine der entscheidenden Hauptquellen für Unsicherheiten von Klimaprojektionen ist, wie sensitiv das Klimasystem auf Änderungen der Strahlungsbilanz der Erde reagiert. Angesichts des kontinuierlichen Anstiegs der atmosphärischen Treibhausgaskonzentrationen ist die Einschränkung des Unsicherheitsbereichs dieser Sensitivität von entscheidender Bedeutung. Ein häufig verwendetes Maß zur Beschreibung dieser charakteristischen Kenngröße von Klimamodellen ist die sogenannte Klimasensitivität, definiert als die Gleichgewichtsänderung der simulierten globalen Mitteltemperatur, welche sich aus einer Verdoppelung des atmosphärischen CO2-Gehalts ergibt. Die breite Spanne der geschätzten Klimasensitivität (1.5-4.5°C), welche ein Vergleich verschiedener komplexer Klimamodelle nahe legt (IPCC, 2001), verdeutlicht, wie groß die Unsicherheit in der Klimasensitivität ist. Diese Unsicherheit resultiert in erster Linie aus Unterschieden in der Simulation der entscheidenden Rückkopplungs-mechanismen in den verschiedenen Modellen. Das zentrale Ziel dieser Dissertation ist die Einschränkung des breiten Unsicherheitsbereichs der Klimasensitivität. Zunächst wird hierzu ein großes Ensemble an Modellsimulationen erzeugt, in welchem gezielt spezifische Modellparameter variiert, und somit unterschiedliche Rückkopplungsstärken der einzelnen Modellversionen realisiert werden. Diese Simulationen werden dann auf ihre Konsistenz mit sowohl heutigen Beobachtungsdaten, als auch Proxy-Daten des Letzten Glazialen Maximums (LGM) überprüft. Unsere Analysen basieren dabei auf einem Ensemble voll gekoppelter Modellläufe, welche mit einem Klimamodell intermediärer Komplexität (CLIMBER-2) realisiert wurden. Die betrachteten Modellversionen decken eine breite Spanne verschiedener Klimasensitivitäten (1.3-5.5°C) ab und wurden durch gleichzeitiges Variieren von 11 Modellparametern erzeugt. Die Analyse der simulierten Rückkopplungs-mechanismen offenbart, dass unterschiedliche Werte der Klimasensitivität in unserem Modellensemble durch verschiedene Realisierungen der Rückkopplungsstärken von Wasserdampf, Wolken, Temperatur-Vertikalprofil und Albedo zu erklären sind. Die berechneten Gesamt-Rückkopplungsstärken unser Modellversionen decken hierbei fast den gesamten möglichen Bereich von komplexeren Modellen ab. Wir zeigen, dass sich die Forderung nach Konsistenz zwischen simuliertem vorindustriellem Klima und Messdaten, die auf einer Wahl von sieben global gemittelten Datensätzen basieren, als vergleichsweise schwacher Test der Modellsensitivität erweist: Die Daten schränken den plausiblen Bereich der Klimasensitivität lediglich auf 1.3-4.9°C ein. Zieht man neben den genannten global gemittelten Messdaten außerdem klimatische Informationen aus Jahreszeit und geografischer Breite hinzu, lässt sich die Unsicherheit in der Klimasensitivität nicht weiter einschränken. Der neue Ansatz dieser Dissertation besteht darin, in systematischer Weise einen großen Satz an LGM-Simulationen mit Dateninformationen über die rekonstruierte glaziale Abkühlung bestimmter Regionen zu kombinieren. Unabhängig von den Unsicherheiten in Modellparametern und Rückkopplungsstärken offenbaren unsere Modellversionen eine ausgeprägte Beziehung zwischen der simulierten Erwärmung aufgrund der CO2-Verdoppelung und der Abkühlung im LGM. Basierend auf dieser engen Beziehung zwischen vergangener und zukünftiger Temperaturentwicklung definieren wir eine Methode (basierend auf linearer Regression), welche es uns erlaubt, robuste 5-95%-Quantile der Klimasensitivität abzuschätzen. Indem wir Proxy-Daten des LGM von niederen und hohen Breiten heranziehen, können wir die Unsicherheitsspanne der Klimasensitivität auf 1.3-3.5°C beschränken. Unsicherheiten im glazialen Strahlungsantrieb vergrößern diese Abschätzung auf 1.2-4.3°C, wobei die Annahme von großen strukturellen Unsicherheiten die obere Grenze um ein weiteres Grad erhöhen kann. Indem wir Proxy-Daten über tropische und antarktische Abkühlung betrachten, können wir zeigen, dass sehr unterschiedliche absolute Temperatur-Änderungen in hohen und niederen Breiten zu sehr ähnlichen Abschätzungen der Klimasensitivität führen. Vor dem Hintergrund unserer Ergebnisse zeigt diese Dissertation, dass LGM-Proxy-Daten ein effektives Mittel zur Einschränkung des Unsicherheitsbereichs der Klimasensitivität sein können und betont somit das Potenzial von Paläoklimadaten, den großen Unsicherheitsbereich von Klimaprojektionen zu reduzieren. KW - Dynamische Modellierung KW - Potsdam / Potsdam-Institut für Klimafolgenforschung KW - Entscheidung bei Unsicherheit KW - Klimasensitivität KW - Klimaprognose KW - Unsicherheitsanalyse KW - Ensemble-Simulation KW - Letztes Glaziales Maximum KW - climate sensitivity KW - climate projection KW - uncertainty analysis KW - ensemble simulation KW - Last Glacial Maximum Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7778 ER - TY - THES A1 - Hu, Ji T1 - A virtual machine architecture for IT-security laboratories T1 - Eine virtuelle maschinenbasierte Architektur für IT-Sicherheitslabore N2 - This thesis discusses challenges in IT security education, points out a gap between e-learning and practical education, and presents a work to fill the gap. E-learning is a flexible and personalized alternative to traditional education. Nonetheless, existing e-learning systems for IT security education have difficulties in delivering hands-on experience because of the lack of proximity. Laboratory environments and practical exercises are indispensable instruction tools to IT security education, but security education in conventional computer laboratories poses particular problems such as immobility as well as high creation and maintenance costs. Hence, there is a need to effectively transform security laboratories and practical exercises into e-learning forms. In this thesis, we introduce the Tele-Lab IT-Security architecture that allows students not only to learn IT security principles, but also to gain hands-on security experience by exercises in an online laboratory environment. In this architecture, virtual machines are used to provide safe user work environments instead of real computers. Thus, traditional laboratory environments can be cloned onto the Internet by software, which increases accessibility to laboratory resources and greatly reduces investment and maintenance costs. Under the Tele-Lab IT-Security framework, a set of technical solutions is also proposed to provide effective functionalities, reliability, security, and performance. The virtual machines with appropriate resource allocation, software installation, and system configurations are used to build lightweight security laboratories on a hosting computer. Reliability and availability of laboratory platforms are covered by a virtual machine management framework. This management framework provides necessary monitoring and administration services to detect and recover critical failures of virtual machines at run time. Considering the risk that virtual machines can be misused for compromising production networks, we present a security management solution to prevent the misuse of laboratory resources by security isolation at the system and network levels. This work is an attempt to bridge the gap between e-learning/tele-teaching and practical IT security education. It is not to substitute conventional teaching in laboratories but to add practical features to e-learning. This thesis demonstrates the possibility to implement hands-on security laboratories on the Internet reliably, securely, and economically. N2 - Diese Dissertation beschreibt die Herausforderungen in der IT Sicherheitsausbildung und weist auf die noch vorhandene Lücke zwischen E-Learning und praktischer Ausbildung hin. Sie erklärt einen Ansatz sowie ein System, um diese Lücke zwischen Theorie und Praxis in der elektronischen Ausbildung zu schließen. E-Learning ist eine flexible und personalisierte Alternative zu traditionellen Lernmethoden. Heutigen E-Learning Systemen mangelt es jedoch an der Fähigkeit, praktische Erfahrungen über große Distanzen zu ermöglichen. Labor- bzw. Testumgebungen sowie praktische Übungen sind jedoch unverzichtbar, wenn es um die Ausbildung von Sicherheitsfachkräften geht. Konventionelle Laborumgebungen besitzen allerdings einige Nachteile wie bspw. hoher Erstellungsaufwand, keine Mobilität, hohe Wartungskosten, etc. Die Herausforderung heutiger IT Sicherheitsausbildung ist es daher, praktische Sicherheitslaborumgebungen und Übungen effektiv mittels E-Learning zu unterstützen. In dieser Dissertation wird die Architektur von Tele-Lab IT-Security vorgestellt, die Studenten nicht nur erlaubt theoretische Sicherheitskonzepte zu erlernen, sondern darüber hinaus Sicherheitsübungen in einer Online-Laborumgebung praktisch zu absolvieren. Die Teilnehmer können auf diese Weise wichtige praktische Erfahrungen im Umgang mit Sicherheitsprogrammen sammeln. Zur Realisierung einer sicheren Übungsumgebung, werden virtuelle Maschinen anstatt reale Rechner im Tele-Lab System verwendet. Mittels virtueller Maschinen können leicht Laborumgebungen geklont, verwaltet und über das Internet zugänglich gemacht werden. Im Vergleich zu herkömmlichen Offline-Laboren können somit erhebliche Investitions- und Wartungskosten gespart werden. Das Tele-Lab System bietet eine Reihe von technischen Funktionen, die den effektiven, zuverlässigen und sicheren Betrieb dieses Trainingssystems gewährleistet. Unter Beachtung angemessener Ressourcennutzung, Softwareinstallationen und Systemkonfigurationen wurden virtuelle Maschinen als Übungsstationen erstellt, die auf einem einzelnen Rechner betrieben werden. Für ihre Zuverlässigkeit und Verfügbarkeit ist das Managementsystem der virtuellen Maschinen verantwortlich. Diese Komponente besitzt die notwendigen Überwachungs- und Verwaltungsfunktionen, um kritische Fehler der virtuellen Maschinen während der Laufzeit zu erkennen und zu beheben. Damit die Übungsstationen nicht bspw. zur Kompromittierung von Produktivnetzwerken genutzt werden, beschreibt die Dissertation Sicherheits-Managementlösungen, die mittels Isolation auf System und Netzwerk Ebene genau dieses Risiko verhindern sollen. Diese Arbeit ist der Versuch, die Lücke zwischen E-Learning/Tele-Teaching und praktischer Sicherheitsausbildung zu schließen. Sie verfolgt nicht das Ziel, konventionelle Ausbildung in Offline Laboren zu ersetzen, sondern auch praktische Erfahrungen via E-Learning zu unterstützen. Die Dissertation zeigt die Möglichkeit, praktische Erfahrungen mittels Sicherheitsübungsumgebungen über das Internet auf zuverlässige, sichere und wirtschaftliche Weise zu vermitteln. KW - Computersicherheit KW - VM KW - E-Learning KW - IT security KW - virtual machine KW - E-Learning Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7818 ER - TY - THES A1 - Prevot, Michelle Elizabeth T1 - Introduction of a thermo-sensitive non-polar species into polyelectrolyte multilayer capsules for drug delivery T1 - Einbettung unpolarer, temperaturempfindlicher Substanzen in Polyelektrolytkapselsysteme zur Wirkstofffreisetzung N2 - The layer-by-layer assembly (LBL) of polyelectrolytes has been extensively studied for the preparation of ultrathin films due to the versatility of the build-up process. The control of the permeability of these layers is particularly important as there are potential drug delivery applications. Multilayered polyelectrolyte microcapsules are also of great interest due to their possible use as microcontainers. This work will present two methods that can be used as employable drug delivery systems, both of which can encapsulate an active molecule and tune the release properties of the active species. Poly-(N-isopropyl acrylamide), (PNIPAM) is known to be a thermo-sensitive polymer that has a Lower Critical Solution Temperature (LCST) around 32oC; above this temperature PNIPAM is insoluble in water and collapses. It is also known that with the addition of salt, the LCST decreases. This work shows Differential Scanning Calorimetry (DSC) and Confocal Laser Scanning Microscopy (CLSM) evidence that the LCST of the PNIPAM can be tuned with salt type and concentration. Microcapsules were used to encapsulate this thermo-sensitive polymer, resulting in a reversible and tunable stimuli- responsive system. The encapsulation of the PNIPAM inside of the capsule was proven with Raman spectroscopy, DSC (bulk LCST measurements), AFM (thickness change), SEM (morphology change) and CLSM (in situ LCST measurement inside of the capsules). The exploitation of the capsules as a microcontainer is advantageous not only because of the protection the capsules give to the active molecules, but also because it facilitates easier transport. The second system investigated demonstrates the ability to reduce the permeability of polyelectrolyte multilayer films by the addition of charged wax particles. The incorporation of this hydrophobic coating leads to a reduced water sensitivity particularly after heating, which melts the wax, forming a barrier layer. This conclusion was proven with Neutron Reflectivity by showing the decreased presence of D2O in planar polyelectrolyte films after annealing creating a barrier layer. The permeability of capsules could also be decreased by the addition of a wax layer. This was proved by the increase in recovery time measured by Florescence Recovery After Photobleaching, (FRAP) measurements. In general two advanced methods, potentially suitable for drug delivery systems, have been proposed. In both cases, if biocompatible elements are used to fabricate the capsule wall, these systems provide a stable method of encapsulating active molecules. Stable encapsulation coupled with the ability to tune the wall thickness gives the ability to control the release profile of the molecule of interest. N2 - Verkapselung ist ein vielseitiges Werkzeug, das zum Schutz und zum Transport von Molekülen ebenso eingesetzt werden kann, wie zur Verbindung von Reaktionspartnern in einem gemeinsamen, von der Umgebung abgeschirmten Raum. Es basiert auf einem einfachen Vorbild der Natur. Pflanzen schützen ihren Samen zum Beispiel durch eine harte, nahezu undurchdringbare Schale (Nüsse) oder durch eine selektiv durchlässige Hülle, wie bei Weizen, der sobald er feucht wird zu keimen beginnt. Die Natur setzt durch den Einsatz des Hülle-Kern Prinzips sehr effizient die Kontrolle über Durchlässigkeit und Anpassung an bestimmte Aufgaben um. Wird das Hülle-Kern-Prinzip zum Schutz oder Transport von Molekülen eingesetzt, so sind die zu verwendenden Kapseln nur wenige Mikrometer groß. Sie werden dann als Mikrokapseln bezeichnet. Zur Erzeugung dieser Mikrokapseln werden verschiedene Methoden verwendet. Der heute übliche Weg geht von einer ca. 5-10 Mikrometer großen Kugel (Kern) aus, die mit einer stabilen und an die gewünschten Eigenschaften angepassten Schicht von wenigen Nanometern versehen wird. Im Anschluss wird der Kern herausgelöst und eine hohle, stabile Kapsel erhalten. Schichten von wenigen Nanometern Dicke können aus Polyelektrolyten durch das Layer-by-Layer-Verfahren (LbL) hergestellt werden. Dieses Verfahren eignet sich auf Grund seiner vielen Anpassungsmöglichkeiten besonders zum Aufbau der Schichten für Mikrokapseln, da sich die Eigenschaften der Beschichtung bereits beim Aufbau der Schicht auf die Bedürfnisse maßschneidern lassen. Diese Arbeit befasst sich mit der Erzeugung von Mikrokapseln, deren Eigenschaften temperaturabhängig sind. Dies wurde auf zwei Wegen erreicht. Zum einen wurden Kapseln aus Polyelektrolyten und Wachs aufgebaut. Bei Temperaturerhöhung schmilzt das Wachs und versiegelt die Kapsel. Zum anderen werden Kapseln mit einem Wärme empfindlichen Polymer gefüllt. Bei Temperaturerhöhung kollabiert das Polymergerüst. Der enthaltene Wirkstoff wird freigesetzt. KW - Mikrokapsel KW - Polyelektrolyt KW - Mehrschichtsysteme KW - Polyelectrolyte KW - Multilayers KW - Capsule Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7785 ER - TY - THES A1 - Huang, Wanjun T1 - Temporary binding for dynamic middleware construction and web services composition T1 - Temporäre Anbindung für dynamischen Middlewareaufbau und Web Services Integration N2 - With increasing number of applications in Internet and mobile environments, distributed software systems are demanded to be more powerful and flexible, especially in terms of dynamism and security. This dissertation describes my work concerning three aspects: dynamic reconfiguration of component software, security control on middleware applications, and web services dynamic composition. Firstly, I proposed a technology named Routing Based Workflow (RBW) to model the execution and management of collaborative components and realize temporary binding for component instances. The temporary binding means component instances are temporarily loaded into a created execution environment to execute their functions, and then are released to their repository after executions. The temporary binding allows to create an idle execution environment for all collaborative components, on which the change operations can be immediately carried out. The changes on execution environment will result in a new collaboration of all involved components, and also greatly simplifies the classical issues arising from dynamic changes, such as consistency preserving etc. To demonstrate the feasibility of RBW, I created a dynamic secure middleware system - the Smart Data Server Version 3.0 (SDS3). In SDS3, an open source implementation of CORBA is adopted and modified as the communication infrastructure, and three secure components managed by RBW, are created to enhance the security on the access of deployed applications. SDS3 offers multi-level security control on its applications from strategy control to application-specific detail control. For the management by RBW, the strategy control of SDS3 applications could be dynamically changed by reorganizing the collaboration of the three secure components. In addition, I created the Dynamic Services Composer (DSC) based on Apache open source projects, Apache Axis and WSIF. In DSC, RBW is employed to model the interaction and collaboration of web services and to enable the dynamic changes on the flow structure of web services. Finally, overall performance tests were made to evaluate the efficiency of the developed RBW and SDS3. The results demonstrated that temporary binding of component instances makes slight impacts on the execution efficiency of components, and the blackout time arising from dynamic changes can be extremely reduced in any applications. N2 - Heutige Softwareanwendungen fuer das Internet und den mobilen Einsatz erfordern bezueglich Funktionalitaet und Sicherheit immer leistungsstaerkere verteilte Softwaresysteme. Diese Dissertation befasst sich mit der dynamischen Rekonfiguration von Komponentensoftware, Sicherheitskontrolle von Middlewareanwendungen und der dynamischen Komposition von Web Services. Zuerst wird eine Routing Based Workflow (RBW) Technologie vorgestellt, welche die Ausfuehrung und das Management von kollaborierenden Komponenten modelliert, sowie fuer die Realisierung einer temporaeren Anbindung von Komponenteninstanzen zustaendig ist. D.h., Komponenteninstanzen werden zur Ausfuehrung ihrer Funktionalitaet temporaer in eine geschaffene Ausfuehrungsumgebung geladen und nach Beendigung wieder freigegeben. Die temporaere Anbindung erlaubt das Erstellen einer Ausfuehrungsumgebung, in der Rekonfigurationen unmittelbar vollzogen werden koennen. Aenderungen der Ausfuehrungsumgebung haben neue Kollaborations-Beziehungen der Komponenten zufolge und vereinfachen stark die Schwierigkeiten wie z.B. Konsistenzerhaltung, die mit dynamischen Aenderungen verbunden sind. Um die Durchfuehrbarkeit von RBW zu demonstrieren, wurde ein dynamisches, sicheres Middleware System erstellt - der Smart Data Server, Version 3 (SDS3). Bei SDS3 kommt eine Open Source Softwareimplementierung von CORBA zum Einsatz, die modifiziert als Kommunikationsinfrasturkutur genutzt wird. Zudem wurden drei Sicherheitskomponenten erstellt, die von RBW verwaltet werden und die Sicherheit beim Zugriff auf die eingesetzten Anwendungen erhoehen. SDS3 bietet den Anwendungen Sicherheitskontrollfunktionen auf verschiedenen Ebenen, angefangen von einer Strategiekontrolle bis zu anwendungsspezifischen Kontrollfunktionen. Mittels RBW kann die Strategiekontrolle des SDS3 dynamisch durch Reorganisation von Kollabortions-Beziehungen zwischen den Sicherheitskomponenten angepasst werden. Neben diesem System wurde der Dynamic Service Composer (DSC) implementiert, welcher auf den Apache Open Source Projekten Apache Axis und WSIF basiert. Im DSC wird RBW eingesetzt, um die Interaktion und Zusammenarbeit von Web Services zu modellieren sowie dynamische Aenderungen der Flussstruktur von Web Services zu ermoeglichen. Nach der Implementierung wurden Performance-Tests bezueglich RBW und SDS3 durchgefuehrt. Die Ergebnisse der Tests zeigen, dass eine temporaere Anbindung von Komponenteninstanzen nur einen geringen Einfluss auf die Ausfuehrungseffizienz von Komponeten hat. Ausserdem bestaetigen die Testergebnisse, dass die mit der dynamischen Rekonfiguration verbundene Ausfallzeit extrem niedrig ist. KW - Middleware KW - Web Services KW - Temporäre Anbindung KW - Dynamische Rekonfiguration KW - temporary binding KW - dynamic reconfiguration Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7672 ER - TY - THES A1 - Dornhege, Guido T1 - Increasing information transfer rates for brain-computer interfacing T1 - Erhöhung der Informationstransferrate einer Gehirn-Computer-Schnittstelle N2 - The goal of a Brain-Computer Interface (BCI) consists of the development of a unidirectional interface between a human and a computer to allow control of a device only via brain signals. While the BCI systems of almost all other groups require the user to be trained over several weeks or even months, the group of Prof. Dr. Klaus-Robert Müller in Berlin and Potsdam, which I belong to, was one of the first research groups in this field which used machine learning techniques on a large scale. The adaptivity of the processing system to the individual brain patterns of the subject confers huge advantages for the user. Thus BCI research is considered a hot topic in machine learning and computer science. It requires interdisciplinary cooperation between disparate fields such as neuroscience, since only by combining machine learning and signal processing techniques based on neurophysiological knowledge will the largest progress be made. In this work I particularly deal with my part of this project, which lies mainly in the area of computer science. I have considered the following three main points: Establishing a performance measure based on information theory: I have critically illuminated the assumptions of Shannon's information transfer rate for application in a BCI context. By establishing suitable coding strategies I was able to show that this theoretical measure approximates quite well to what is practically achieveable. Transfer and development of suitable signal processing and machine learning techniques: One substantial component of my work was to develop several machine learning and signal processing algorithms to improve the efficiency of a BCI. Based on the neurophysiological knowledge that several independent EEG features can be observed for some mental states, I have developed a method for combining different and maybe independent features which improved performance. In some cases the performance of the combination algorithm outperforms the best single performance by more than 50 %. Furthermore, I have theoretically and practically addressed via the development of suitable algorithms the question of the optimal number of classes which should be used for a BCI. It transpired that with BCI performances reported so far, three or four different mental states are optimal. For another extension I have combined ideas from signal processing with those of machine learning since a high gain can be achieved if the temporal filtering, i.e., the choice of frequency bands, is automatically adapted to each subject individually. Implementation of the Berlin brain computer interface and realization of suitable experiments: Finally a further substantial component of my work was to realize an online BCI system which includes the developed methods, but is also flexible enough to allow the simple realization of new algorithms and ideas. So far, bitrates of up to 40 bits per minute have been achieved with this system by absolutely untrained users which, compared to results of other groups, is highly successful. N2 - Ein Brain-Computer Interface (BCI) ist eine unidirektionale Schnittstelle zwischen Mensch und Computer, bei der ein Mensch in der Lage ist, ein Gerät einzig und allein Kraft seiner Gehirnsignale zu steuern. In den BCI Systemen fast aller Forschergruppen wird der Mensch in Experimenten über Wochen oder sogar Monaten trainiert, geeignete Signale zu produzieren, die vordefinierten allgemeinen Gehirnmustern entsprechen. Die BCI Gruppe in Berlin und Potsdam, der ich angehöre, war in diesem Feld eine der ersten, die erkannt hat, dass eine Anpassung des Verarbeitungssystems an den Menschen mit Hilfe der Techniken des Maschinellen Lernens große Vorteile mit sich bringt. In unserer Gruppe und mittlerweile auch in vielen anderen Gruppen wird BCI somit als aktuelles Forschungsthema im Maschinellen Lernen und folglich in der Informatik mit interdisziplinärer Natur in Neurowissenschaften und anderen Feldern verstanden, da durch die geeignete Kombination von Techniken des Maschinellen Lernens und der Signalverarbeitung basierend auf neurophysiologischem Wissen der größte Erfolg erzielt werden konnte. In dieser Arbeit gehe ich auf meinem Anteil an diesem Projekt ein, der vor allem im Informatikbereich der BCI Forschung liegt. Im Detail beschäftige ich mich mit den folgenden drei Punkten: Diskussion eines informationstheoretischen Maßes für die Güte eines BCI's: Ich habe kritisch die Annahmen von Shannon's Informationsübertragungsrate für die Anwendung im BCI Kontext beleuchtet. Durch Ermittlung von geeigneten Kodierungsstrategien konnte ich zeigen, dass dieses theoretische Maß den praktisch erreichbaren Wert ziemlich gut annähert. Transfer und Entwicklung von geeigneten Techniken aus dem Bereich der Signalverarbeitung und des Maschinellen Lernens: Eine substantielle Komponente meiner Arbeit war die Entwicklung von Techniken des Machinellen Lernens und der Signalverarbeitung, um die Effizienz eines BCI's zu erhöhen. Basierend auf dem neurophysiologischem Wissen, dass verschiedene unabhängige Merkmale in Gehirnsignalen für verschiedene mentale Zustände beobachtbar sind, habe ich eine Methode zur Kombination von verschiedenen und unter Umständen unabhängigen Merkmalen entwickelt, die sehr erfolgreich die Fähigkeiten eines BCI's verbessert. Besonders in einigen Fällen übertraf die Leistung des entwickelten Kombinationsalgorithmus die beste Leistung auf den einzelnen Merkmalen mit mehr als 50 %. Weiterhin habe ich theoretisch und praktisch durch Einführung geeigneter Algorithmen die Frage untersucht, wie viele Klassen man für ein BCI nutzen kann und sollte. Auch hier wurde ein relevantes Resultat erzielt, nämlich dass für BCI Güten, die bis heute berichtet sind, die Benutzung von 3 oder 4 verschiedenen mentalen Zuständen in der Regel optimal im Sinne von erreichbarer Leistung sind. Für eine andere Erweiterung wurden Ideen aus der Signalverarbeitung mit denen des Maschinellen Lernens kombiniert, da ein hoher Erfolg erzielt werden kann, wenn der temporale Filter, d.h. die Wahl des benutzten Frequenzbandes, automatisch und individuell für jeden Menschen angepasst wird. Implementation des Berlin Brain-Computer Interfaces und Realisierung von geeigneten Experimenten: Eine weitere wichtige Komponente meiner Arbeit war eine Realisierung eines online BCI Systems, welches die entwickelten Methoden umfasst, aber auch so flexibel ist, dass neue Algorithmen und Ideen einfach zu verwirklichen sind. Bis jetzt wurden mit diesem System Bitraten von bis zu 40 Bits pro Minute von absolut untrainierten Personen in ihren ersten BCI Experimenten erzielt. Dieses Resultat übertrifft die bisher berichteten Ergebnisse aller anderer BCI Gruppen deutlich.
Bemerkung: Der Autor wurde mit dem Michelson-Preis 2005/2006 für die beste Promotion des Jahrgangs der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam ausgezeichnet. KW - Kybernetik KW - Maschinelles Lernen KW - Gehirn-Computer-Schnittstelle KW - BCI KW - EEG KW - Spatio-Spectral Filter KW - Feedback KW - Multi-Class KW - Classification KW - Signal Processing KW - Brain Computer Interface KW - Information Transfer Rate KW - Machine Learning KW - Single Trial Analysis KW - Feature Combination KW - Common Spatial Pattern Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7690 ER - TY - GEN A1 - Dai Pra, Paolo A1 - Louis, Pierre-Yves A1 - Minelli, Ida T1 - Monotonicity and complete monotonicity for continuous-time Markov chains N2 - We analyze the notions of monotonicity and complete monotonicity for Markov Chains in continuous-time, taking values in a finite partially ordered set. Similarly to what happens in discrete-time, the two notions are not equivalent. However, we show that there are partially ordered sets for which monotonicity and complete monotonicity coincide in continuous time but not in discrete-time. N2 - Nous étudions les notions de monotonie et de monotonie complète pour les processus de Markov (ou chaînes de Markov à temps continu) prenant leurs valeurs dans un espace partiellement ordonné. Ces deux notions ne sont pas équivalentes, comme c'est le cas lorsque le temps est discret. Cependant, nous établissons que pour certains ensembles partiellement ordonnés, l'équivalence a lieu en temps continu bien que n'étant pas vraie en temps discret. KW - Stochastik KW - continuous time Markov Chains KW - poset KW - monotonicity KW - coupling Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7665 ER - TY - THES A1 - Schauer, Nicolas T1 - Quantitative trait loci (QTL) for metabolite accumulation and metabolic regulation : metabolite profiling of interspecific crosses of tomato T1 - Metabolomische Analyse von interspezifischen Tomaten N2 - The advent of large-scale and high-throughput technologies has recently caused a shift in focus in contemporary biology from decades of reductionism towards a more systemic view. Alongside the availability of genome sequences the exploration of organisms utilizing such approach should give rise to a more comprehensive understanding of complex systems. Domestication and intensive breeding of crop plants has led to a parallel narrowing of their genetic basis. The potential to improve crops by conventional breeding using elite cultivars is therefore rather limited and molecular technologies, such as marker assisted selection (MAS) are currently being exploited to re-introduce allelic variance from wild species. Molecular breeding strategies have mostly focused on the introduction of yield or resistance related traits to date. However given that medical research has highlighted the importance of crop compositional quality in the human diet this research field is rapidly becoming more important. Chemical composition of biological tissues can be efficiently assessed by metabolite profiling techniques, which allow the multivariate detection of metabolites of a given biological sample. Here, a GC/MS metabolite profiling approach has been applied to investigate natural variation of tomatoes with respect to the chemical composition of their fruits. The establishment of a mass spectral and retention index (MSRI) library was a prerequisite for this work in order to establish a framework for the identification of metabolites from a complex mixture. As mass spectral and retention index information is highly important for the metabolomics community this library was made publicly available. Metabolite profiling of tomato wild species revealed large differences in the chemical composition, especially of amino and organic acids, as well as on the sugar composition and secondary metabolites. Intriguingly, the analysis of a set of S. pennellii introgression lines (IL) identified 889 quantitative trait loci of compositional quality and 326 yield-associated traits. These traits are characterized by increases/decreases not only of single metabolites but also of entire metabolic pathways, thus highlighting the potential of this approach in uncovering novel aspects of metabolic regulation. Finally the biosynthetic pathway of the phenylalanine-derived fruit volatiles phenylethanol and phenylacetaldehyde was elucidated via a combination of metabolic profiling of natural variation, stable isotope tracer experiments and reverse genetic experimentation. N2 - Die Einführung von Hochdurchsatzmethoden zur Analyse von biologischen Systemen, sowie die umfangreiche Sequenzierung von Genomen haben zu einer Verlagerung der Forschung „im Detail“ zu einer ganzheitlicheren Betrachtungsweise auf Systemebene geführt. Aus einer jahrhundertlangen, intensiven Züchtung und Selektion von Nutzpflanzen resultierte gleichzeitig eine Abnahme der genetischen Varianz. Daraus resultierend sind Nutzpflanzen anfälliger gegenüber Stressfaktoren, wie Pathogenen, hohen Salzkonzentrationen oder Trockenheit, als ihre Wildarten. Das Potential konventioneller Züchtung scheint somit heute an seine Grenzen gekommen zu sein. Daher versucht man mittels moderner Molekulartechnik, wie zum Beispiel Marker-gestützte Selektion, Gene oder ganze Genombereiche von Wildarten mit hoher genetischer Variation in Nutzpflanzen einzukreuzen, vornehmlich mit dem Ziel einer Ertrags- bzw. Resistenzsteigerung. Neueste medizinische Studien belegen, dass die Ernährung eine wesentliche Rolle für die menschliche Gesundheit spielt. Besonders wichtig sind hierbei die gesundheitsfördernden Substanzen in pflanzlichen Nahrungsmitteln. Aus diesem Grund kommt der Erforschung der biochemischen Zusammensetzung von biologischen Proben eine immer größere Bedeutung zu. Diese Untersuchung kann elegant durch Metabolitenprofile, welche die multivariate Analyse komplexer biologischer Proben erlauben, durchgeführt werden. In dieser Arbeit wurde zur Untersuchung der biochemischen Zusammensetzung von Tomatenwildarten und interspezifischen S. pennellii Tomatenintrogressionslinien (IL) eine GC/MS basierte Metabolitenanalyseplattform verwendet. Hierzu war es zunächst notwendig eine Massenspektrenbibliothek, zur Annotierung von Massenspektren und Retentionsindices von, in pflanzlichen Proben vorkommenden, Metaboliten anzulegen. Die Analyse der Tomatenwildarten ergab große Unterschiede gegenüber der Kulturtomate im Hinblick auf den Gehalt an Amino- und organischen Säuren, sowie der Zuckerzusammensetzung und den Gehalt an Sekundärmetaboliten. Die darauf folgende Analyse der ILs, von den jede ein genau definiertes genomisches Segment von S. pennellii beinhaltet, bestätigte diese enorme Variation mit 889 metabolischen und 326 ertragsassozierten-Veränderungen in den ILs. Die metabolischen Veränderungen zeichneten sich durch abnehmende bzw. steigende Gehalte von einzelnen Metaboliten, aber auch durch eine koordinierte Änderung aus. In dieser Arbeit wurde weiterhin der Biosyntheseweg der Volatilenstoffe Phenylethanol und Phenylacetaldehyd mit Hilfe einer IL untersucht. Hierbei konnten durch stabile Isotopenmarkierung und eines „reverse genetics“-Ansatzes Gene bzw. Enzyme identifiziert werden, die für die Dekarboxylierung des Eduktes Phenylalanin verantwortlich sind. Diese Arbeit beschreibt erstmals die umfassende Analyse von biochemischen Komponenten auf Genombasis in Tomatenintrogressionslinien und zeigt damit ein Werkzeug auf zur Identifizierung von qualitativen biochemischen Merkmalen in der modernen molekularen Züchtung. KW - Tomate KW - Metabolit KW - GC-MS KW - Introgression KW - Frucht KW - Metabolome KW - Züchtung KW - metabolic genomics KW - Tomato KW - metabolite profiling KW - metabolome KW - breeding KW - crops KW - fruit KW - metabolite breeding KW - metabolic genomics Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7643 ER - TY - THES A1 - Schmeja, Stefan T1 - Properties of turbulent star-forming clusters : models versus observations T1 - Eigenschaften turbulenter junger Sternhaufen : Modelle kontra Beobachtungen N2 - Stars are born in turbulent molecular clouds that fragment and collapse under the influence of their own gravity, forming a cluster of hundred or more stars. The star formation process is controlled by the interplay between supersonic turbulence and gravity. In this work, the properties of stellar clusters created by numerical simulations of gravoturbulent fragmentation are compared to those from observations. This includes the analysis of properties of individual protostars as well as statistical properties of the entire cluster. It is demonstrated that protostellar mass accretion is a highly dynamical and time-variant process. The peak accretion rate is reached shortly after the formation of the protostellar core. It is about one order of magnitude higher than the constant accretion rate predicted by the collapse of a classical singular isothermal sphere, in agreement with the observations. For a more reasonable comparison, the model accretion rates are converted to the observables bolometric temperature, bolometric luminosity, and envelope mass. The accretion rates from the simulations are used as input for an evolutionary scheme. The resulting distribution in the Tbol-Lbol-Menv parameter space is then compared to observational data by means of a 3D Kolmogorov-Smirnov test. The highest probability found that the distributions of model tracks and observational data points are drawn from the same population is 70%. The ratios of objects belonging to different evolutionary classes in observed star-forming clusters are compared to the temporal evolution of the gravoturbulent models in order to estimate the evolutionary stage of a cluster. While it is difficult to estimate absolute ages, the realtive numbers of young stars reveal the evolutionary status of a cluster with respect to other clusters. The sequence shows Serpens as the youngest and IC 348 as the most evolved of the investigated clusters. Finally the structures of young star clusters are investigated by applying different statistical methods like the normalised mean correlation length and the minimum spanning tree technique and by a newly defined measure for the cluster elongation. The clustering parameters of the model clusters correspond in many cases well to those from observed ones. The temporal evolution of the clustering parameters shows that the star cluster builds up from several subclusters and evolves to a more centrally concentrated cluster, while the cluster expands slower than new stars are formed. N2 - Sterne entstehen im Inneren von turbulenten Molekülwolken, die unter dem Einfluss ihrer eigenen Gravitation fragmentieren und kollabieren. So entsteht ein Sternhaufen aus hundert oder mehr Objekten. Der Sternentstehungsprozess wird durch das Wechselspiel von Überschallturbulenz und Gravitation reguliert. In dieser Arbeit werden verschiedene Eigenschaften solcher Sternhaufen, die mit Hilfe von numerischen Simulationen modelliert wurden, untersucht und mit Beobachtungsdaten verglichen. Dabei handelt es sich sowohl um Eigenschaften einzelner Protosterne, als auch um statistische Parameter des Sternhaufens als Ganzes. Es wird gezeigt, dass die Massenakkretion von Protosternen ein höchst dynamischer und zeitabhängiger Prozess ist. Die maximale Akkretionsrate wird kurz nach der Bildung des Protosterns erreicht, bevor sie annähernd exponentiell abfällt. Sie ist, in Übereinstimmung mit Beobachtungen, etwa um eine Größenordnung höher als die konstante Rate in den klassischen Modellen. Um die Akkretionsraten der Modelle zuverlässiger vergleichen zu können, werden sie mit Hilfe eines Evolutionsschemas in besser beobachtbare Parameter wie bolometrische Temperatur und Leuchtkraft sowie Hüllenmasse umgewandelt. Die dreidimensionale Verteilung dieser Parameter wird anschließend mittels eines Kolmogorov-Smirnov-Tests mit Beobachtungsdaten verglichen. Die relative Anzahl junger Sterne in verschiedenen Entwicklungsstadien wird mit der zeitlichen Entwicklung der Modelle verglichen, um so den Entwicklungsstand des Sternhaufens abschätzen zu können. Während eine genaue Altersbestimmung schwierig ist, kann der Entwicklungsstand eines Haufens relativ zu anderen gut ermittelt werden. Von den untersuchten Objekten stellt sich Serpens als der jüngste und IC 348 als der am weitesten entwickelte Sternhaufen heraus. Zuletzt werden die Strukturen von jungen Sternhaufen an Hand verschiedener statistischer Methoden und eines neuen Maßes für die Elongation eines Haufens untersucht. Auch hier zeigen die Parameter der Modelle eine gute Übereinstimmung mit solchen von beobachteten Objekten, insbesondere, wenn beide eine ähnliche Elongation aufweisen. Die zeitliche Entwicklung der Parameter zeigt, dass sich ein Sternhaufen aus mehreren kleineren Gruppen bildet, die zusammenwachsen und einen zum Zentrum hin konzentrierten Haufen bilden. Dabei werden neue Sterne schneller gebildet als sich der Sternhaufen ausdehnt. KW - Sternentstehung KW - Sternhaufen KW - Turbulenz KW - Interstellare Materie KW - Numerisches Verfahren KW - star formation KW - star clusters KW - turbulence KW - interstellar medium KW - numerical simulations Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7364 ER - TY - THES A1 - Rosenberger, Elke T1 - Asymptotic spectral analysis and tunnelling for a class of difference operators T1 - Asymptotische Spektralanalyse und Tunneleffekt für eine Klasse von Differenzen-Operatoren N2 - We analyze the asymptotic behavior in the limit epsilon to zero for a wide class of difference operators H_epsilon = T_epsilon + V_epsilon with underlying multi-well potential. They act on the square summable functions on the lattice (epsilon Z)^d. We start showing the validity of an harmonic approximation and construct WKB-solutions at the wells. Then we construct a Finslerian distance d induced by H and show that short integral curves are geodesics and d gives the rate for the exponential decay of Dirichlet eigenfunctions. In terms of this distance, we give sharp estimates for the interaction between the wells and construct the interaction matrix. N2 - Wir analysieren das asymptotische Verhalten im Grenzwert epsilon gegen null von einer weiten Klasse von Differenzen operatoren H_epsilon = T_epsilon + V_epsilon mit unterliegendem Potential. Sie wirken auf die quadrat-summierbaren Funktionen auf dem Gitter (epsilon Z)^d. Zunächst zeigen wir die Gültigkeit einer harmonischen Approximation und konstruieren WKB-Lösungen an den Töpfen. Dann konstruieren wir eine Finslersche Abstandsfunktion d, die durch H induziert wird und zeigen, daß kurze Integralkurven Geodäten sind und daß d die Rate des exponentiellen Abfallverhaltens von Dirichlet-Eigenfunktionen beschreibt. Bezügliche dieses Abstands geben wir scharfe Abschätzungen für die Wechselwirkung zwischen den Töpfen und konstruieren die Wechselwirkungs-Matrix. KW - Mathematische Physik KW - Operatortheorie KW - Generalized translation operator KW - Tunneleffekt KW - Spektraltheorie KW - Asymptotische Entwicklung KW - Semi-klasische Abschätzung KW - Finsler-Abstand KW - Pseudodifferentialoperatoren auf dem Torus KW - Kontinuumsgrenzwert KW - Differenzenoperator KW - tunneling KW - semi-classical spectral estimates KW - Finsler-distance KW - difference operator KW - scaled lattice Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7393 ER - TY - THES A1 - Nolte, Marc T1 - Integration of freestanding polyelectrolyte multilayer membranes in larger scale structures T1 - Integratrion freistehender Polyelektrolytmembranden in makroskopische Strukturen N2 - Ultrathin, semi-permeable membranes are not only essential in natural systems (membranes of cells or organelles) but they are also important for applications (separation, filtering) in miniaturized devices. Membranes, integrated as diffusion barriers or filters in micron scale devices need to fulfill equivalent requirements as the natural systems, in particular mechanical stability and functionality (e.g. permeability), while being only tens of nm in thickness to allow fast diffusion times. Promising candidates for such membranes are polyelectrolyte multilayers, which were found to be mechanically stable, and variable in functionality. In this thesis two concepts to integrate such membranes in larger scale structures were developed. The first is based on the directed adhesion of polyelectrolyte hollow microcapsules. As a result, arrays of capsules were created. These can be useful for combinatorial chemistry or sensing. This concept was expanded to couple encapsulated living cells to the surface. The second concept is the transfer of flat freestanding multilayer membranes to structured surfaces. We have developed a method that allows us to couple mm2 areas of defect free film with thicknesses down to 50 nm to structured surfaces and to avoid crumpling of the membrane. We could again use this technique to produce arrays of micron size. The freestanding membrane is a diffusion barrier for high molecular weight molecules, while small molecules can pass through the membrane and thus allows us to sense solution properties. We have shown also that osmotic pressures lead to membrane deflection. That could be described quantitatively. N2 - Die Entwicklung von “Labors auf einem Chip” hat in den vergangenen Jahren großes Interesse hervorgerufen. Diese Chips ermöglichen schnelle vor Ort Analytik, wie sie beispielsweise in Arztpraxen oder bei der Schadstoff Überwachung wünschenswert wäre. Die Entwicklung solcher Systeme stellt große Herausforderungen an Forscher verschiedenster Disziplinen. Ein großer Vorteil solcher Systeme sind die verkürzten Reaktionszeiten durch die Verkleinerung der Dimensionen. Membranen, die als Diffusionsbarrieren oder Filter in solche Systeme integriert werden sollen, müssen den Ansprüchen an mechanische Stabilität, Funktionalität (z.B. Permeabilität) bei einer Dicke von einigen 10 nm genügen. Die Reduktion der Membrandicke ist erforderlich um die Diffusionszeiten durch die Membran zu minimieren. Polyelektrolyte sind vielversprechende Kandidaten für solche Membranen, da sie sowohl mechanisch stabil sind, als auch variabel in ihrer Funktionalität In dieser Arbeit werden zwei Konzepte zur Integration solcher Membranen vorgestellt. Das erste Konzept basiert auf der selektiven Adhäsion von Polyelektrolytkapseln auf strukturierten Oberflächen. Für das gewählte Kapselsystem konnte bereits eine große Stabilität und eine breite Funktionalität gezeigt werden. Die Strukturierung wird durch Mikrokontaktdrucken erzielt und führt. zu attraktiven und repulsiven Bereichen auf der Oberfläche. Die Kapesladhäsion findet auf den attraktiven Bereichen statt. Auf diese Weise werden die Kapseln 2-dimensional auf der Oberfläche angeordnet. Die definierte laterale Position der Kapseln ermöglicht Anwendungen in der kombinatorischen Chemie oder der Sensorik. Der makroskopische Transfer von bis zu 50 nm dünnen Polyelektrolytmembranen auf microstrukturierte Substrate ist das zweite präsentierte Konzept zur Integration freistehender Membranen. Dabei entsteht ein großflächiger Bereich (mm2) von Millionen von Hohlräumen mit einem Volumen in der Größe von pL (10-12l). Diese Holräume können mit Reagenzien gefüllt werden. Diese reagieren durch die Membran auf Änderungen in der umgebenden Flüssigkeit. Von besonderem Interesse ist der Aspekt, daß nicht nur eingekapselte Reagenzien als Sensormaterial fungieren können, sondern auch durch die Deformation der Membran Änderungen im osmotischen Druck der Umgebung quantitativ erfaßt werden können. KW - Polyelektrolyt KW - Diffusionsbarriere KW - Freistehende Membranen KW - Kraftsensoren KW - polyelectrolyte membranes KW - force sensors KW - diffusion barrier Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7355 ER - TY - CHAP A1 - Rossmanith, Eva A1 - Blaum, Niels A1 - Keil, Manfred A1 - Langerwisch, F. A1 - Meyer, Jork A1 - Popp, Alexander A1 - Schmidt, Michael A1 - Schultz, Christoph A1 - Schwager, Monika A1 - Vogel, Melanie A1 - Wasiolka, Bernd A1 - Jeltsch, Florian T1 - Scaling up local population dynamics to regional scales BT - an integrated approach N2 - In semi-arid savannas, unsustainable land use can lead to degradation of entire landscapes, e.g. in the form of shrub encroachment. This leads to habitat loss and is assumed to reduce species diversity. In BIOTA phase 1, we investigated the effects of land use on population dynamics on farm scale. In phase 2 we scale up to consider the whole regional landscape consisting of a diverse mosaic of farms with different historic and present land use intensities. This mosaic creates a heterogeneous, dynamic pattern of structural diversity at a large spatial scale. Understanding how the region-wide dynamic land use pattern affects the abundance of animal and plant species requires the integration of processes on large as well as on small spatial scales. In our multidisciplinary approach, we integrate information from remote sensing, genetic and ecological field studies as well as small scale process models in a dynamic region-wide simulation tool.
Interdisziplinäres Zentrum für Musterdynamik und Angewandte Fernerkundung Workshop vom 9. - 10. Februar 2006. Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7320 N1 - [Poster] ER - TY - CHAP A1 - Riedel, Michael R. A1 - Ziemann, Martin Andreas A1 - Oberhänsli, Roland T1 - Pattern dynamics applied to the kinetics of mineral phase transformations N2 - Interdisziplinäres Zentrum für Musterdynamik und Angewandte Fernerkundung Workshop vom 9. - 10. Februar 2006 Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7316 N1 - [Poster] ER - TY - CHAP A1 - Popp, Alexander A1 - Blaum, Niels A1 - Domptail, Stephanie A1 - Herpel, Nicole A1 - Gröngröft, Alexander A1 - Hoffman, T. T. A1 - Jürgens, Norbert A1 - Milton, Sue A1 - Nuppenau, Ernst-August A1 - Rossmanith, Eva A1 - Schmidt, Michael A1 - Vogel, Melanie A1 - Vohland, Katrin A1 - Jeltsch, Florian T1 - From satellite imagery to soil-plant interactions BT - integrating disciplines and scales in process based simulation models N2 - Decisions for the conservation of biodiversity and sustainable management of natural resources are typically related to large scales, i.e. the landscape level. However, understanding and predicting the effects of land use and climate change on scales relevant for decision-making requires to include both, large scale vegetation dynamics and small scale processes, such as soil-plant interactions. Integrating the results of multiple BIOTA subprojects enabled us to include necessary data of soil science, botany, socio-economics and remote sensing into a high resolution, process-based and spatially-explicit model. Using an example from a sustainably-used research farm and a communally used and degraded farming area in semiarid southern Namibia we show the power of simulation models as a tool to integrate processes across disciplines and scales. Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7302 N1 - Interdisziplinäres Zentrum für Musterdynamik und Angewandte Fernerkundung Workshop vom 9. - 10. Februar 2006. [Poster] ER -