Extern
Refine
Has Fulltext
- yes (109) (remove)
Year of publication
Document Type
- Doctoral Thesis (109) (remove)
Is part of the Bibliography
- yes (109) (remove)
Keywords
- Arktis (6)
- Arctic (5)
- Fernerkundung (3)
- Holozän (3)
- Klimawandel (3)
- Kohlenstoff (3)
- Nanopartikel (3)
- carbon (3)
- climate change (3)
- molecular motors (3)
Institute
- Extern (109)
- Institut für Geowissenschaften (28)
- Institut für Physik und Astronomie (27)
- Institut für Chemie (24)
- Institut für Biochemie und Biologie (12)
- Institut für Ernährungswissenschaft (3)
- Institut für Informatik und Computational Science (2)
- Institut für Mathematik (2)
- Wirtschaftswissenschaften (2)
- Department Erziehungswissenschaft (1)
It is desirable to reduce the potential threats that result from the variability of nature, such as droughts or heat waves that lead to food shortage, or the other extreme, floods that lead to severe damage. To prevent such catastrophic events, it is necessary to understand, and to be capable of characterising, nature's variability. Typically one aims to describe the underlying dynamics of geophysical records with differential equations. There are, however, situations where this does not support the objectives, or is not feasible, e.g., when little is known about the system, or it is too complex for the model parameters to be identified. In such situations it is beneficial to regard certain influences as random, and describe them with stochastic processes. In this thesis I focus on such a description with linear stochastic processes of the FARIMA type and concentrate on the detection of long-range dependence. Long-range dependent processes show an algebraic (i.e. slow) decay of the autocorrelation function. Detection of the latter is important with respect to, e.g. trend tests and uncertainty analysis. Aiming to provide a reliable and powerful strategy for the detection of long-range dependence, I suggest a way of addressing the problem which is somewhat different from standard approaches. Commonly used methods are based either on investigating the asymptotic behaviour (e.g., log-periodogram regression), or on finding a suitable potentially long-range dependent model (e.g., FARIMA[p,d,q]) and test the fractional difference parameter d for compatibility with zero. Here, I suggest to rephrase the problem as a model selection task, i.e.comparing the most suitable long-range dependent and the most suitable short-range dependent model. Approaching the task this way requires a) a suitable class of long-range and short-range dependent models along with suitable means for parameter estimation and b) a reliable model selection strategy, capable of discriminating also non-nested models. With the flexible FARIMA model class together with the Whittle estimator the first requirement is fulfilled. Standard model selection strategies, e.g., the likelihood-ratio test, is for a comparison of non-nested models frequently not powerful enough. Thus, I suggest to extend this strategy with a simulation based model selection approach suitable for such a direct comparison. The approach follows the procedure of a statistical test, with the likelihood-ratio as the test statistic. Its distribution is obtained via simulations using the two models under consideration. For two simple models and different parameter values, I investigate the reliability of p-value and power estimates obtained from the simulated distributions. The result turned out to be dependent on the model parameters. However, in many cases the estimates allow an adequate model selection to be established. An important feature of this approach is that it immediately reveals the ability or inability to discriminate between the two models under consideration. Two applications, a trend detection problem in temperature records and an uncertainty analysis for flood return level estimation, accentuate the importance of having reliable methods at hand for the detection of long-range dependence. In the case of trend detection, falsely concluding long-range dependence implies an underestimation of a trend and possibly leads to a delay of measures needed to take in order to counteract the trend. Ignoring long-range dependence, although present, leads to an underestimation of confidence intervals and thus to an unjustified belief in safety, as it is the case for the return level uncertainty analysis. A reliable detection of long-range dependence is thus highly relevant in practical applications. Examples related to extreme value analysis are not limited to hydrological applications. The increased uncertainty of return level estimates is a potentially problem for all records from autocorrelated processes, an interesting examples in this respect is the assessment of the maximum strength of wind gusts, which is important for designing wind turbines. The detection of long-range dependence is also a relevant problem in the exploration of financial market volatility. With rephrasing the detection problem as a model selection task and suggesting refined methods for model comparison, this thesis contributes to the discussion on and development of methods for the detection of long-range dependence.
Es ist bekannt, dass Änderungen im Kohlenstoff- bzw. Stickstoffstaus der Pflanzen zu einer parallelen statt reziproken Änderung der kohlenstoff- und stickstoffhaltigen Primärmetabolite führen. Unter diesem Gesichtspunkt wurden in der vorliegenden Arbeit der Aminosäurestoffwechsel und der Sekundärstoffwechsel unter reduzierten Stickstoffbedingungen untersucht. Zur Beeinflussung des Stickstoffstoffwechsels wurden nitratmangelernährte Tabakwildtyppflanzen und Genotypen mit unterschiedlich stark reduzierter Nitratreduktase-Aktivität verwendet. Dieses experimentelle System erlaubt zusätzlich durch den Vergleich Nitrat defizienter Wildtyppflanzen mit Nitrat akkumulierenden NIA-Transformanten Prozesse zu identifizieren, die durch Nitrat gesteuert werden. Die Analysen der Primär- und Sekundärmetabolite wurde in allen Genotypen diurnal durchgeführt, um auch tageszeitlich abhängige Prozesse zu identifizieren. Die Analyse der absoluten Gehalte aller individuellen Aminosäuren enthüllte bei den meisten erstaunlich stabile diurnale Muster mit einem Anstieg während des Tages und einem Abfall in der Nacht in Wildtyppflanzen gewachsen mit ausreichend Nitrat. Dieses Ergebnis legt die Schlussfolgerung nahe, dass die Biosynthese der Aminosäuren koordiniert abläuft. In Pflanzen mit reduziertem Stickstoffstatus haben diese diurnalen Muster jedoch keinen Bestand. Die Kombination des erzeugten stickstoffbasierten Aminosäuredatensatz in Kombination mit einem bereits erzeugten Aminosäuredatensatz unter kohlenstofflimitierten Bedingungen von Matt et al. (2002) führte durch Hauptkomponentenanalyse (PCA) und Korrelationsanalyse zu dem Ergebnis, dass die Hypothese nach einer koordinierten Aminosäurebiosynthese nicht allgemeine Gültigkeit hat. Die PCA identifizierte Glutamin, Glutamat, Aspartat, Glycin, Pheny-lalanin und Threonin als Faktoren, die den Datensätzen ihre charakteristische Eigenschaft und deren Varianz verleihen. Die Korrelationsanalyse zeigte, dass die sehr guten Korrelationen der individuellen Aminosäuren untereinander in reduzierten Stickstoff- und Kohlenstoffbedingungen sich verschlechtern. Das Verhältnis einer einzelnen Aminosäure relativ zu den anderen führte zur Identifizierung einiger Aminosäuren, die individuelle Antworten auf Stickstoff- und/oder Kohlenstoffstatus zeigen, und/oder speziell auf Nitrat, Licht und/oder den E-nergiestatus der Thylakoidmembran. Glutamat beispielsweise verhält sich in den meisten Situationen stabil, Phenylalanin dagegen zeigt in jeder physiologischen Situation eine individuelle Antwort. Die Ergebnisse dieser Arbeit führen zu einer Erweiterung der Hypothese einer koordinierten Synthese der Aminosäuren dahingehend, dass diese nicht generell für alle Aminosäuren angenommen werden kann. Es gibt einige Aminosäuren deren, Anteile sich situationsbedingt anpassen. Die Reduktion des Stickstoffstatus in nitratmangelernährten Tabakwildtyppflanzen führte zu der, nach der „Carbon-Nutrient-Balance“ Hypothese erwarteten Verlagerung der kohlenstoffreichen Phenylpropanoide und des stickstoffreichen Nikotins. Die Erhöhung der Phenylpropanoidgehalte war nicht in der Nitrat akkumulierenden NIA-Transformante zu beobachten und somit konnte Nitrat als regulatorisches Element identifiziert werden. Ein Einfluss der Vorläufermetabolite konnte ausgeschlossen werden, da sowohl nitratmangelernährter Wildtyp als auch die Nitrat akkumulierende NIA-Transformante ähnliche Gehalte dieser aufwiesen. Genexpressionsanalysen über Mikroarray-Hybridisierung und quantitative RT-PCR zeigten, dass Nitrat durch noch nicht geklärte Mechanismen Einfluss auf die Expression einiger Gene nimmt, die dem Phenylpropanoidstoffwechsels zugeordnet sind. Aus der Arbeit hervorgegangene Veröffentlichungen: Christina Fritz, Natalia Palacios-Rojas, Regina Feil und Mark Stitt (2006) Regulation of Secondary Metabolism by the Carbon-Nitrogen Status in Tobacco: Nitrate Inhibits Large Sectors of Phenylpropanoid Metabolism. Plant Journal 46, 533 - 548 Christina Fritz, Petra Matt, Cathrin Müller, Regina Feil und Mark Stitt (2006) Impact of the Carbon-Nitrogen Status on the Amino Acid Profile in Tobacco Source Leaves. Plant, Cell and Environment 29 (11), 2009 - 2111
The innovation of information techniques has changed many aspects of our life. In health care field, we can obtain, manage and communicate high-quality large volumetric image data by computer integrated devices, to support medical care. In this dissertation I propose several promising methods that could assist physicians in processing, observing and communicating the image data. They are included in my three research aspects: telemedicine integration, medical image visualization and image segmentation. And these methods are also demonstrated by the demo software that I developed. One of my research point focuses on medical information storage standard in telemedicine, for example DICOM, which is the predominant standard for the storage and communication of medical images. I propose a novel 3D image data storage method, which was lacking in current DICOM standard. I also created a mechanism to make use of the non-standard or private DICOM files. In this thesis I present several rendering techniques on medical image visualization to offer different display manners, both 2D and 3D, for example, cut through data volume in arbitrary degree, rendering the surface shell of the data, and rendering the semi-transparent volume of the data. A hybrid segmentation approach, designed for semi-automated segmentation of radiological image, such as CT, MRI, etc, is proposed in this thesis to get the organ or interested area from the image. This approach takes advantage of the region-based method and boundary-based methods. Three steps compose the hybrid approach: the first step gets coarse segmentation by fuzzy affinity and generates homogeneity operator; the second step divides the image by Voronoi Diagram and reclassifies the regions by the operator to refine segmentation from the previous step; the third step handles vague boundary by level set model. Topics for future research are mentioned in the end, including new supplement for DICOM standard for segmentation information storage, visualization of multimodal image information, and improvement of the segmentation approach to higher dimension.
Collisions of black holes and neutron stars, named mixed binaries in the following, are interesting because of at least two reasons. Firstly, it is expected that they emit a large amount of energy as gravitational waves, which could be measured by new detectors. The form of those waves is expected to carry information about the internal structure of such systems. Secondly, collisions of such objects are the prime suspects of short gamma ray bursts. The exact mechanism for the energy emission is unknown so far. In the past, Newtonian theory of gravitation and modifications to it were often used for numerical simulations of collisions of mixed binary systems. However, near to such objects, the gravitational forces are so strong, that the use of General Relativity is necessary for accurate predictions. There are a lot of problems in general relativistic simulations. However, systems of two neutron stars and systems of two black holes have been studies extensively in the past and a lot of those problems have been solved. One of the remaining problems so far has been the use of hydrodynamic on excision boundaries. Inside excision regions, no evolution is carried out. Such regions are often used inside black holes to circumvent instabilities of the numerical methods near the singularity. Methods to handle hydrodynamics at such boundaries have been described and tests are shown in this work. One important test and the first application of those methods has been the simulation of a collapsing neutron star to a black hole. The success of these simulations and in particular the performance of the excision methods was an important step towards simulations of mixed binaries. Initial data are necessary for every numerical simulation. However, the creation of such initial data for general relativistic situations is in general very complicated. In this work it is shown how to obtain initial data for mixed binary systems using an already existing method for initial data of two black holes. These initial data have been used for evolutions of such systems and problems encountered are discussed in this work. One of the problems are instabilities due to different methods, which could be solved by dissipation of appropriate strength. Another problem is the expected drift of the black hole towards the neutron star. It is shown, that this can be solved by using special gauge conditions, which prevent the black hole from moving on the computational grid. The methods and simulations shown in this work are only the starting step for a much more detailed study of mixed binary system. Better methods, models and simulations with higher resolution and even better gauge conditions will be focus of future work. It is expected that such detailed studies can give information about the emitted gravitational waves, which is important in view of the newly built gravitational wave detectors. In addition, these simulations could give insight into the processes responsible for short gamma ray bursts.
Nikotin in den unterschiedlichsten Darreichungsformen verringert bei verschiedenen Spezies im räumlichen Hinweisreizparadigma die Kosten invalider Hinweisreize. Welcher Teilprozess genau durch Nikotin beeinflusst wird, ist bislang nicht untersucht worden. Die gängige Interpretation ist, daß Nikotin das Loslösen von Aufmerksamkeit von einem bisher beachteten Ort erleichtert. In fünf Studien, drei elektrophysiologischen und zwei behavioralen wurden drei mögliche Mechanismen der Nikotinwirkung an Nichtrauchern untersucht. Experiment 1 und 2 gingen der Frage nach, ob Nikotin eine Modulation sensorischer gain Kontrolle bewirkt. Dazu wurden ereigniskorrelierte Potentiale (EKP) im Posner-Paradigma erhoben und die Wirkung von Nikotin auf die aufmerksamkeitsassoziierten Komponenten P1 und N1 betrachtet. Nikotin verringerte die Kosten invalider Hinweisreize bei Aufmerksamkeitslenkung durch endogene Hinweisreize, nicht aber bei exogenen Hinweisreizen. Die P1 und N1 Komponenten zeigten sich unbeeinflusst von Nikotin, damit findet also die Annahme einer Wirkung auf sensorische Suppression keine Unterstützung. In Experiment 3 und 4 wurde untersucht, ob Nikotin einen Effekt auf kostenträchtige unwillkürliche Aufmerksamkeitsverschiebungen, Distraktionen, hat. In Experiment 3 wurden in einem räumlichen Daueraufmerksamkeitsparadigma Distraktionen durch deviante Stimulusmerkmale ausgelöst und die Wirkung von Nikotin auf eine distraktionsassoziierte Komponente des EKP, die P3a, betrachtet. In Experiment 4 wurde in einem Hinweisreizparadigma durch zusätzliche Stimuli eine Distraktion ausgelöst und die Nikotinwirkung auf die Reaktionszeitkosten untersucht. Nikotin zeigte keinen Einfluss auf Distraktionskosten in beiden Studien und auch keine Wirkung auf die P3a Komponente in Experiment 3. In Experiment 4 wurde zusätzlich die Wirkung von Nikotin auf das Loslösen von Aufmerksamkeit untersucht, indem die Schwierigkeit des Loslösens variiert wurde. Auch hier zeigte sich keine Nikotinwirkung. Allerdings konnte in beiden Studien weder die häufig berichtete generelle Reaktionszeitverkürzung noch die Verringerung der Kosten invalider Hinweisreize repliziert werden, so dass zum Einen keine Aussage über die Wirkung von Nikotin auf Distraktionen oder den Aufmerksamkeitsloslöseprozess gemacht werden können, zum Anderen sich die Frage stellte, unter welchen Bedingungen Nikotin einen differentiellen Effekt überhaupt zeigt. Im letzten Experiment wurde hierzu die Häufigkeit der Reaktionsanforderung einerseits und die zeitlichen Aspekte der Aufmerksamkeitslenkung andererseits variiert und der Effekt des Nikotins auf den Validitätseffekt, die Reaktionszeitdifferenz zwischen valide und invalide vorhergesagten Zielreizen, betrachtet. Nikotin verringerte bei Individuen, bei denen Aufmerksamkeitslenkung in allen Bedingungen evident war, in der Tendenz den Validitätseffekt in der ereignisärmsten Bedingung, wenn nur selten willentliche Aufmerksamkeitsausrichtung notwendig war. Dies könnte als Hinweis gedeutet werden, dass Nikotin unter Bedingungen, die große Anforderungen an die Vigilanz stellen, die top-down Zuweisung von Aufmerksamkeitsressourcen unterstützt.
The advent of large-scale and high-throughput technologies has recently caused a shift in focus in contemporary biology from decades of reductionism towards a more systemic view. Alongside the availability of genome sequences the exploration of organisms utilizing such approach should give rise to a more comprehensive understanding of complex systems. Domestication and intensive breeding of crop plants has led to a parallel narrowing of their genetic basis. The potential to improve crops by conventional breeding using elite cultivars is therefore rather limited and molecular technologies, such as marker assisted selection (MAS) are currently being exploited to re-introduce allelic variance from wild species. Molecular breeding strategies have mostly focused on the introduction of yield or resistance related traits to date. However given that medical research has highlighted the importance of crop compositional quality in the human diet this research field is rapidly becoming more important. Chemical composition of biological tissues can be efficiently assessed by metabolite profiling techniques, which allow the multivariate detection of metabolites of a given biological sample. Here, a GC/MS metabolite profiling approach has been applied to investigate natural variation of tomatoes with respect to the chemical composition of their fruits. The establishment of a mass spectral and retention index (MSRI) library was a prerequisite for this work in order to establish a framework for the identification of metabolites from a complex mixture. As mass spectral and retention index information is highly important for the metabolomics community this library was made publicly available. Metabolite profiling of tomato wild species revealed large differences in the chemical composition, especially of amino and organic acids, as well as on the sugar composition and secondary metabolites. Intriguingly, the analysis of a set of S. pennellii introgression lines (IL) identified 889 quantitative trait loci of compositional quality and 326 yield-associated traits. These traits are characterized by increases/decreases not only of single metabolites but also of entire metabolic pathways, thus highlighting the potential of this approach in uncovering novel aspects of metabolic regulation. Finally the biosynthetic pathway of the phenylalanine-derived fruit volatiles phenylethanol and phenylacetaldehyde was elucidated via a combination of metabolic profiling of natural variation, stable isotope tracer experiments and reverse genetic experimentation.
Moderne Softwaresysteme sind komplexe Gebilde, welche häufig im Verbund mit anderen technischen und betriebswirtschaftlichen Systemen eingesetzt werden. Für die Hersteller solcher Systeme stellt es oft eine große Herausforderung dar, den oft weit reichenden Anforderungen bezüglich der Anpassbarkeit solcher Systeme gerecht zu werden. Zur Erfüllung dieser Anforderungen hat es sich vielfach bewährt, eine virtuelle Maschine in das betreffende System zu integrieren. Die Dissertation richtet sich insbesondere an Personen, die vor der Aufgabe der Integration virtueller Maschinen in bestehende Systeme stehen und zielt darauf ab, solche für die Entscheidung über Integrationsfragen wichtigen Zusammenhänge klar darzustellen. Typischerweise treten bei der Integration einer virtuellen Maschine in ein System eine Reihe unterschiedlicher Problemstellungen auf. Da diese Problemstellungen oft eng miteinander verzahnt sind, ist eine isolierte Betrachtung meist nicht sinnvoll. Daher werden die Problemstellungen anhand eines zentral gewählten, sehr umfangreichen Beispiels aus der industriellen Praxis eingeführt. Dieses Beispiel hat die Integration der "Java Virtual Machine" in den SAP R/3 Application Server zum Gegenstand. Im Anschluss an dieses Praxisbeispiel wird die Diskussion der Integrationsproblematik unter Bezug auf eine Auswahl weiterer, in der Literatur beschriebener Integrationsbeispiele vertieft. Das Hauptproblem bei der Behandlung der Integrationsproblematik bestand darin, dass die vorgefundenen Beschreibungen, der als Beispiel herangezogenen Systeme, nur bedingt als Basis für die Auseinandersetzung mit der Integrationsproblematik geeignet waren. Zur Schaffung einer verwertbaren Diskussionsgrundlage war es daher erforderlich, eine homogene, durchgängige Modellierung dieser Systeme vorzunehmen. Die Modellierung der Systeme erfolgte dabei unter Verwendung der "Fundamental Modeling Concepts (FMC)". Die erstellten Modelle sowie die auf Basis dieser Modelle durchgeführte Gegenüberstellung der unterschiedlichen Ansätze zur LÖsung typischer Integrationsprobleme bilden den Hauptbeitrag der Dissertation. Im Zusammenhang mit der Integration virtueller Maschinen in bestehende Systeme besteht häufig der Bedarf, zeitgleich mehrere "Programme" durch die integrierte virtuelle Maschine ausführen zu lassen. Angesichts der Konstruktionsmerkmale vieler heute verbreiteter virtueller Maschinen stellt die Realisierung eines "betriebsmittelschonenden Mehrprogrammbetriebs" eine große Herausforderung dar. Die Darstellung des Spektrums an Maßnahmen zur Realisierung eines "betriebsmittelschonenden Mehrprogrammbetriebs" bildet einen zweiten wesentlichen Beitrag der Dissertation.
Das Borna Disease Virus (BDV, Bornavirus) besitzt ein einzelsträngiges RNA-Genom negativer Polarität und ist innerhalb der Ordnung Mononegavirales der Prototyp einer eigenen Virusfamilie, die der Bornaviridae. Eine außergewöhnliche Eigenschaft des Virus ist seine nukleäre Transkription und Replikation, eine weitere besteht in seiner Fähigkeit, als neurotropes Virus sowohl in vivo als auch in vitro persistente Infektionen zu etablieren. Die zugrunde liegenden Mechanismen sowohl der Replikation als auch der Persistenz sind derzeit noch unzureichend verstanden, auch deshalb, weil das Virus noch relativ „jung“ ist: Erste komplette Sequenzen des RNA-Genoms wurden 1994 publiziert und erst vor einigen Monaten gelang die Generierung rekombinanter Viren auf der Basis klonierter cDNA. Im Mittelpunkt dieser Arbeit standen das p10 Protein und das Phosphoprotein (P), die von der gemeinsamen Transkriptionseinheit II in überlappenden Leserahmen kodiert werden. Als im Kern der Wirtszelle replizierendes Virus ist das Bornavirus auf zelluläre Importmechanismen angewiesen, um den Kernimport aller an der Replikation beteiligten viralen Proteine zu gewährleisten. Das p10 Protein ist ein negativer Regulator der viralen RNA-abhängigen RNA-Polymerase (L). In vitro Importexperimente zeigten, dass p10 über den klassischen Importin alpha/beta abhängigen Kernimportweg in den Nukleus transportiert wird. Dies war unerwartet, da p10 kein vorhersagbares klassisches Kernlokalisierungssignal (NLS) besitzt und weist darauf hin, dass der zelluläre Importapparat offensichtlich flexibler ist als allgemein angenommen. Die ersten 20 N-terminalen AS vermitteln sowohl Kernimport als auch die Bindung an den Importrezeptor Importin alpha. Durch Di-Alanin-Austauschmutagenese wurden die für diesen Transportprozess essentiellen AS identifiziert und die Bedeutung hydrophober und polarer AS-Reste demonstriert. Die Fähigkeit des Bornavirus, persistente Infektionen zu etablieren, wirft die Frage auf, wie das Virus die zellulären antiviralen Abwehrmechanismen, insbesondere das Typ I Interferon (IFN)-System, unterwandert. Das virale P Protein wurde in dieser Arbeit als potenter Antagonist der IFN-Induktion charakterisiert. Es verhindert die Phosphorylierung des zentralen Transkriptionsfaktors IRF3 durch die zelluläre Kinase TBK1 und somit dessen Aktivierung. Der Befund, dass P mit TBK1 Komplexe bildet und zudem auch als Substrat für die zelluläre Kinase fungiert, erlaubt es, erstmalig einen Mechanismus zu postulieren, in dem ein virales Protein (BDV-P) als putatives TBK1-Pseudosubstrat die IRF3-Aktivierung kompetitiv hemmt.
Adsorption layers of soluble surfactants enable and govern a variety of phenomena in surface and colloidal sciences, such as foams. The ability of a surfactant solution to form wet foam lamellae is governed by the surface dilatational rheology. Only systems having a non-vanishing imaginary part in their surface dilatational modulus, E, are able to form wet foams. The aim of this thesis is to illuminate the dissipative processes that give rise to the imaginary part of the modulus. There are two controversial models discussed in the literature. The reorientation model assumes that the surfactants adsorb in two distinct states, differing in their orientation. This model is able to describe the frequency dependence of the modulus E. However, it assumes reorientation dynamics in the millisecond time regime. In order to assess this model, we designed a SHG pump-probe experiment that addresses the orientation dynamics. Results obtained reveal that the orientation dynamics occur in the picosecond time regime, being in strong contradiction with the two states model. The second model regards the interface as an interphase. The adsorption layer consists of a topmost monolayer and an adjacent sublayer. The dissipative process is due to the molecular exchange between both layers. The assessment of this model required the design of an experiment that discriminates between the surface compositional term and the sublayer contribution. Such an experiment has been successfully designed and results on elastic and viscoelastic surfactant provided evidence for the correctness of the model. Because of its inherent surface specificity, surface SHG is a powerful analytical tool that can be used to gain information on molecular dynamics and reorganization of soluble surfactants. They are central elements of both experiments. However, they impose several structural elements of the model system. During the course of this thesis, a proper model system has been identified and characterized. The combination of several linear and nonlinear optical techniques, allowed for a detailed picture of the interfacial architecture of these surfactants.