TY - THES A1 - Helms, Andreas T1 - Anwendung des Mikrogravitationslinseneffekts zur Untersuchung astronomischer Objekte N2 - Die Untersuchung mikrogelinster astronomischer Objekte ermöglicht es, Informationen über die Größe und Struktur dieser Objekte zu erhalten. Im ersten Teil dieser Arbeit werden die Spektren von drei gelinsten Quasare, die mit dem Potsdamer Multi Aperture Spectrophotometer (PMAS) erhalten wurden, auf Anzeichen für Mikrolensing untersucht. In den Spektren des Vierfachquasares HE 0435-1223 und des Doppelquasares HE 0047-1756 konnten Hinweise für Mikrolensing gefunden werden, während der Doppelquasar UM 673 (Q 0142--100) keine Anzeichen für Mikrolensing zeigt. Die Invertierung der Lichtkurve eines Mikrolensing-Kausik-Crossing-Ereignisses ermöglicht es, das eindimensionale Helligkeitsprofil der gelinsten Quelle zu rekonstruieren. Dies wird im zweiten Teil dieser Arbeit untersucht. Die mathematische Beschreibung dieser Aufgabe führt zu einer Volterra'schen Integralgleichung der ersten Art, deren Lösung ein schlecht gestelltes Problem ist. Zu ihrer Lösung wird in dieser Arbeit ein lokales Regularisierungsverfahren angewendet, das an die kausale Strukture der Volterra'schen Gleichung besser angepasst ist als die bisher verwendete Tikhonov-Phillips-Regularisierung. Es zeigt sich, dass mit dieser Methode eine bessere Rekonstruktion kleinerer Strukturen in der Quelle möglich ist. Weiterhin wird die Anwendbarkeit der Regularisierungsmethode auf realistische Lichtkurven mit irregulärem Sampling bzw. größeren Lücken in den Datenpunkten untersucht. N2 - The study of microlensed astronomical objects can reveal information about the size and the structure of these objects. In the first part of this thesis we analyze the spectra of three lensed quasars obtained with the Potsdam Multi Aperture Spectrophotometer (PMAS). The spectra of the quadrupole quasar HE 0435--1223 and the double quasar HE 0047--1756 show evidence for microlensing whereas in the double quasar UM 673 (Q 0142--100) no evidence for microlensing could be found. By inverting the lightcurve of a microlensing caustic crossing event the one dimensional luminosity profile of the lensed source can be reconstructed. This is investigated in the second part of this thesis.The mathematical formulation of this problem leads to a Volterra integral equation of the first kind, whose solution is an ill-posed problem. For the solution we use a local regularization method which is better adapted to the causal structure of the Volterra integral equation compared to the so far used Tikhonov-Phillips regularization. Furthermore we show that this method is more robust on reconstructing small structures in the source profile. We also study the influence of irregular sampled data and gaps in the lightcurve on the result of the inversion. T2 - Anwendung des Mikrogravitationslinseneffekts zur Untersuchung astronomischer Objekte KW - Gravitationslinseneffekt KW - Mikrolensing KW - Quasar KW - Regularisierung KW - Schlecht gestelltes Problem KW - gravitational lensing KW - microlensing KW - quasar KW - regularization KW - ill-posed problem Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001532 ER - TY - THES A1 - Samaras, Stefanos T1 - Microphysical retrieval of non-spherical aerosol particles using regularized inversion of multi-wavelength lidar data T1 - Retrieval der Mikrophysik von nichtkugelförmigen Aerosolpartikeln durch regularisierte Inversion von Mehrwellenlängen-Lidardaten N2 - Numerous reports of relatively rapid climate changes over the past century make a clear case of the impact of aerosols and clouds, identified as sources of largest uncertainty in climate projections. Earth’s radiation balance is altered by aerosols depending on their size, morphology and chemical composition. Competing effects in the atmosphere can be further studied by investigating the evolution of aerosol microphysical properties, which are the focus of the present work. The aerosol size distribution, the refractive index, and the single scattering albedo are commonly used such properties linked to aerosol type, and radiative forcing. Highly advanced lidars (light detection and ranging) have reduced aerosol monitoring and optical profiling into a routine process. Lidar data have been widely used to retrieve the size distribution through the inversion of the so-called Lorenz-Mie model (LMM). This model offers a reasonable treatment for spherically approximated particles, it no longer provides, though, a viable description for other naturally occurring arbitrarily shaped particles, such as dust particles. On the other hand, non-spherical geometries as simple as spheroids reproduce certain optical properties with enhanced accuracy. Motivated by this, we adapt the LMM to accommodate the spheroid-particle approximation introducing the notion of a two-dimensional (2D) shape-size distribution. Inverting only a few optical data points to retrieve the shape-size distribution is classified as a non-linear ill-posed problem. A brief mathematical analysis is presented which reveals the inherent tendency towards highly oscillatory solutions, explores the available options for a generalized solution through regularization methods and quantifies the ill-posedness. The latter will improve our understanding on the main cause fomenting instability in the produced solution spaces. The new approach facilitates the exploitation of additional lidar data points from depolarization measurements, associated with particle non-sphericity. However, the generalization of LMM vastly increases the complexity of the problem. The underlying theory for the calculation of the involved optical cross sections (T-matrix theory) is computationally so costly, that would limit a retrieval analysis to an unpractical point. Moreover the discretization of the model equation by a 2D collocation method, proposed in this work, involves double integrations which are further time consuming. We overcome these difficulties by using precalculated databases and a sophisticated retrieval software (SphInX: Spheroidal Inversion eXperiments) especially developed for our purposes, capable of performing multiple-dataset inversions and producing a wide range of microphysical retrieval outputs. Hybrid regularization in conjunction with minimization processes is used as a basis for our algorithms. Synthetic data retrievals are performed simulating various atmospheric scenarios in order to test the efficiency of different regularization methods. The gap in contemporary literature in providing full sets of uncertainties in a wide variety of numerical instances is of major concern here. For this, the most appropriate methods are identified through a thorough analysis on an overall-behavior basis regarding accuracy and stability. The general trend of the initial size distributions is captured in our numerical experiments and the reconstruction quality depends on data error level. Moreover, the need for more or less depolarization points is explored for the first time from the point of view of the microphysical retrieval. Finally, our approach is tested in various measurement cases giving further insight for future algorithm improvements. N2 - Zahlreiche Berichte von relativ schnellen Klimaveränderungen im vergangenen Jahrhundert liefern überzeugende Argumente über die Auswirkungen von Aerosolen und Wolken auf Wetter und Klima. Aerosole und Wolken wurden als Quellen größter Unsicherheit in Klimaprognosen identifiziert. Die Strahlungsbilanz der Erde wird verändert durch die Partikelgröße, ihre Morphologie und ihre chemische Zusammensetzung. Konkurrierende Effekte in der Atmosphäre können durch die Bestimmung von mikrophysikalischen Partikeleigenschaften weiter untersucht werden, was der Fokus der vorliegenden Arbeit ist. Die Aerosolgrößenverteilung, der Brechungsindex der Partikeln und die Einzel-Streu-Albedo sind solche häufig verwendeten Parameter, die mit dem Aerosoltyp und dem Strahlungsantrieb verbunden sind. Hoch entwickelte Lidare (Light Detection and Ranging) haben die Aerosolüberwachung und die optische Profilierung zu einem Routineprozess gemacht. Lidar-Daten wurden verwendet um die Größenverteilung zu bestimmen, was durch die Inversion des sogenannten Lorenz-Mie-Modells (LMM) gelingt. Dieses Modell bietet eine angemessene Behandlung für sphärisch angenäherte Partikeln, es stellt aber keine brauchbare Beschreibung für andere natürlich auftretende beliebig geformte Partikeln -wie z.B. Staubpartikeln- bereit. Andererseits stellt die Einbeziehung einer nicht kugelförmigen Geometrie –wie z.B. einfache Sphäroide- bestimmte optische Eigenschaften mit verbesserter Genauigkeit dar. Angesichts dieser Tatsache erweitern wir das LMM durch die Approximation von Sphäroid-Partikeln. Dazu ist es notwendig den Begriff einer zweidimensionalen Größenverteilung einzuführen. Die Inversion einer sehr geringen Anzahl optischer Datenpunkte zur Bestimmung der Form der Größenverteilung ist als ein nichtlineares schlecht gestelltes Problem bekannt. Eine kurze mathematische Analyse wird vorgestellt, die die inhärente Tendenz zu stark oszillierenden Lösungen zeigt. Weiterhin werden Optionen für eine verallgemeinerte Lösung durch Regularisierungsmethoden untersucht und der Grad der Schlechtgestelltheit quantifiziert. Letzteres wird unser Verständnis für die Hauptursache der Instabilität bei den berechneten Lösungsräumen verbessern. Der neue Ansatz ermöglicht es uns, zusätzliche Lidar-Datenpunkte aus Depolarisationsmessungen zu nutzen, die sich aus der Nicht-sphärizität der Partikeln assoziieren. Die Verallgemeinerung des LMMs erhöht erheblich die Komplexität des Problems. Die zugrundeliegende Theorie für die Berechnung der beteiligten optischen Querschnitte (T-Matrix-Ansatz) ist rechnerisch so aufwendig, dass eine Neuberechnung dieser nicht sinnvoll erscheint. Darüber hinaus wird ein zweidimensionales Kollokationsverfahren für die Diskretisierung der Modellgleichung vorgeschlagen. Dieses Verfahren beinhaltet Doppelintegrationen, die wiederum zeitaufwendig sind. Wir überwinden diese Schwierigkeiten durch Verwendung vorgerechneter Datenbanken sowie einer hochentwickelten Retrieval-Software (SphInX: Spheroidal Inversion eXperiments). Diese Software wurde speziell für unseren Zweck entwickelt und ist in der Lage mehrere Datensatzinversionen gleichzeitig durchzuführen und eine große Auswahl von mikrophysikalischen Retrieval-Ausgaben bereitzustellen. Eine hybride Regularisierung in Verbindung mit einem Minimierungsverfahren wird als Grundlage für unsere Algorithmen verwendet. Synthetische Daten-Inversionen werden mit verschiedenen atmosphärischen Szenarien durchgeführt, um die Effizienz verschiedener Regularisierungsmethoden zu untersuchen. Die Lücke in der gegenwärtigen wissenschaftlichen Literatur gewisse Unsicherheiten durch breitgefächerte numerische Fälle bereitzustellen, ist ein Hauptanliegen dieser Arbeit. Motiviert davon werden die am besten geeigneten Verfahren einer gründlichen Analyse in Bezug auf ihr Gesamtverhalten, d.h. Genauigkeit und Stabilität, unterzogen. Der allgemeine Trend der Anfangsgrößenverteilung wird in unseren numerischen Experimenten erfasst. Zusätzlich hängt die Rekonstruktionsqualität vom Datenfehler ab. Darüber hinaus wird die Anzahl der notwendigen Depolarisationspunkte zum ersten Mal aus der Sicht des mikrophysikalischen Parameter-Retrievals erforscht. Abschließend verwenden wir unsere Software für verschiedene Messfälle, was weitere Einblicke für künftige Verbesserungen des Algorithmus gibt. KW - microphysics KW - retrieval KW - lidar KW - aerosols KW - regularization KW - ill-posed KW - inversion KW - Mikrophysik KW - Retrieval KW - Lidar KW - Aerosole KW - Regularisierung KW - schlecht gestellt KW - Inversion Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-396528 ER - TY - THES A1 - Rätsch, Gunnar T1 - Robust boosting via convex optimization N2 - In dieser Arbeit werden statistische Lernprobleme betrachtet. Lernmaschinen extrahieren Informationen aus einer gegebenen Menge von Trainingsmustern, so daß sie in der Lage sind, Eigenschaften von bisher ungesehenen Mustern - z.B. eine Klassenzugehörigkeit - vorherzusagen. Wir betrachten den Fall, bei dem die resultierende Klassifikations- oder Regressionsregel aus einfachen Regeln - den Basishypothesen - zusammengesetzt ist. Die sogenannten Boosting Algorithmen erzeugen iterativ eine gewichtete Summe von Basishypothesen, die gut auf ungesehenen Mustern vorhersagen. Die Arbeit behandelt folgende Sachverhalte: o Die zur Analyse von Boosting-Methoden geeignete Statistische Lerntheorie. Wir studieren lerntheoretische Garantien zur Abschätzung der Vorhersagequalität auf ungesehenen Mustern. Kürzlich haben sich sogenannte Klassifikationstechniken mit großem Margin als ein praktisches Ergebnis dieser Theorie herausgestellt - insbesondere Boosting und Support-Vektor-Maschinen. Ein großer Margin impliziert eine hohe Vorhersagequalität der Entscheidungsregel. Deshalb wird analysiert, wie groß der Margin bei Boosting ist und ein verbesserter Algorithmus vorgeschlagen, der effizient Regeln mit maximalem Margin erzeugt. o Was ist der Zusammenhang von Boosting und Techniken der konvexen Optimierung? Um die Eigenschaften der entstehenden Klassifikations- oder Regressionsregeln zu analysieren, ist es sehr wichtig zu verstehen, ob und unter welchen Bedingungen iterative Algorithmen wie Boosting konvergieren. Wir zeigen, daß solche Algorithmen benutzt werden koennen, um sehr große Optimierungsprobleme mit Nebenbedingungen zu lösen, deren Lösung sich gut charakterisieren laesst. Dazu werden Verbindungen zum Wissenschaftsgebiet der konvexen Optimierung aufgezeigt und ausgenutzt, um Konvergenzgarantien für eine große Familie von Boosting-ähnlichen Algorithmen zu geben. o Kann man Boosting robust gegenüber Meßfehlern und Ausreissern in den Daten machen? Ein Problem bisheriger Boosting-Methoden ist die relativ hohe Sensitivität gegenüber Messungenauigkeiten und Meßfehlern in der Trainingsdatenmenge. Um dieses Problem zu beheben, wird die sogenannte 'Soft-Margin' Idee, die beim Support-Vector Lernen schon benutzt wird, auf Boosting übertragen. Das führt zu theoretisch gut motivierten, regularisierten Algorithmen, die ein hohes Maß an Robustheit aufweisen. o Wie kann man die Anwendbarkeit von Boosting auf Regressionsprobleme erweitern? Boosting-Methoden wurden ursprünglich für Klassifikationsprobleme entwickelt. Um die Anwendbarkeit auf Regressionsprobleme zu erweitern, werden die vorherigen Konvergenzresultate benutzt und neue Boosting-ähnliche Algorithmen zur Regression entwickelt. Wir zeigen, daß diese Algorithmen gute theoretische und praktische Eigenschaften haben. o Ist Boosting praktisch anwendbar? Die dargestellten theoretischen Ergebnisse werden begleitet von Simulationsergebnissen, entweder, um bestimmte Eigenschaften von Algorithmen zu illustrieren, oder um zu zeigen, daß sie in der Praxis tatsächlich gut funktionieren und direkt einsetzbar sind. Die praktische Relevanz der entwickelten Methoden wird in der Analyse chaotischer Zeitreihen und durch industrielle Anwendungen wie ein Stromverbrauch-Überwachungssystem und bei der Entwicklung neuer Medikamente illustriert. N2 - In this work we consider statistical learning problems. A learning machine aims to extract information from a set of training examples such that it is able to predict the associated label on unseen examples. We consider the case where the resulting classification or regression rule is a combination of simple rules - also called base hypotheses. The so-called boosting algorithms iteratively find a weighted linear combination of base hypotheses that predict well on unseen data. We address the following issues: o The statistical learning theory framework for analyzing boosting methods. We study learning theoretic guarantees on the prediction performance on unseen examples. Recently, large margin classification techniques emerged as a practical result of the theory of generalization, in particular Boosting and Support Vector Machines. A large margin implies a good generalization performance. Hence, we analyze how large the margins in boosting are and find an improved algorithm that is able to generate the maximum margin solution. o How can boosting methods be related to mathematical optimization techniques? To analyze the properties of the resulting classification or regression rule, it is of high importance to understand whether and under which conditions boosting converges. We show that boosting can be used to solve large scale constrained optimization problems, whose solutions are well characterizable. To show this, we relate boosting methods to methods known from mathematical optimization, and derive convergence guarantees for a quite general family of boosting algorithms. o How to make Boosting noise robust? One of the problems of current boosting techniques is that they are sensitive to noise in the training sample. In order to make boosting robust, we transfer the soft margin idea from support vector learning to boosting. We develop theoretically motivated regularized algorithms that exhibit a high noise robustness. o How to adapt boosting to regression problems? Boosting methods are originally designed for classification problems. To extend the boosting idea to regression problems, we use the previous convergence results and relations to semi-infinite programming to design boosting-like algorithms for regression problems. We show that these leveraging algorithms have desirable theoretical and practical properties. o Can boosting techniques be useful in practice? The presented theoretical results are guided by simulation results either to illustrate properties of the proposed algorithms or to show that they work well in practice. We report on successful applications in a non-intrusive power monitoring system, chaotic time series analysis and a drug discovery process. --- Anmerkung: Der Autor ist Träger des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2001/2002. KW - Boosting KW - Klassifikation mit großem Margin KW - Support-Vector Lernen KW - Regression KW - Regularisierung KW - Mathematische Optimierung KW - Stromverbrauchüberwachung KW - Boosting KW - Large Margin Classification KW - Support Vectors KW - Regression KW - Regularization KW - Mathematical Optimization KW - Power Monitoring KW - Time Series Analysis Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000399 ER - TY - THES A1 - Chen, Xiaoming T1 - Two-dimensional constrained anisotropic inversion of magnetotelluric data T1 - Zweidimensionale constrained anisotrope Inversion von magnetotellurischen Daten N2 - Tectonic and geological processes on Earth often result in structural anisotropy of the subsurface, which can be imaged by various geophysical methods. In order to achieve appropriate and realistic Earth models for interpretation, inversion algorithms have to allow for an anisotropic subsurface. Within the framework of this thesis, I analyzed a magnetotelluric (MT) data set taken from the Cape Fold Belt in South Africa. This data set exhibited strong indications for crustal anisotropy, e.g. MT phases out of the expected quadrant, which are beyond of fitting and interpreting with standard isotropic inversion algorithms. To overcome this obstacle, I have developed a two-dimensional inversion method for reconstructing anisotropic electrical conductivity distributions. The MT inverse problem represents in general a non-linear and ill-posed minimization problem with many degrees of freedom: In isotropic case, we have to assign an electrical conductivity value to each cell of a large grid to assimilate the Earth's subsurface, e.g. a grid with 100 x 50 cells results in 5000 unknown model parameters in an isotropic case; in contrast, we have the sixfold in an anisotropic scenario where the single value of electrical conductivity becomes a symmetric, real-valued tensor while the number of the data remains unchanged. In order to successfully invert for anisotropic conductivities and to overcome the non-uniqueness of the solution of the inverse problem it is necessary to use appropriate constraints on the class of allowed models. This becomes even more important as MT data is not equally sensitive to all anisotropic parameters. In this thesis, I have developed an algorithm through which the solution of the anisotropic inversion problem is calculated by minimization of a global penalty functional consisting of three entries: the data misfit, the model roughness constraint and the anisotropy constraint. For comparison, in an isotropic approach only the first two entries are minimized. The newly defined anisotropy term is measured by the sum of the square difference of the principal conductivity values of the model. The basic idea of this constraint is straightforward. If an isotropic model is already adequate to explain the data, there is no need to introduce electrical anisotropy at all. In order to ensure successful inversion, appropriate trade-off parameters, also known as regularization parameters, have to be chosen for the different model constraints. Synthetic tests show that using fixed trade-off parameters usually causes the inversion to end up by either a smooth model with large RMS error or a rough model with small RMS error. Using of a relaxation approach on the regularization parameters after each successful inversion iteration will result in smoother inversion model and a better convergence. This approach seems to be a sophisticated way for the selection of trade-off parameters. In general, the proposed inversion method is adequate for resolving the principal conductivities defined in horizontal plane. Once none of the principal directions of the anisotropic structure is coincided with the predefined strike direction, only the corresponding effective conductivities, which is the projection of the principal conductivities onto the model coordinate axes direction, can be resolved and the information about the rotation angles is lost. In the end the MT data from the Cape Fold Belt in South Africa has been analyzed. The MT data exhibits an area (> 10 km) where MT phases over 90 degrees occur. This part of data cannot be modeled by standard isotropic modeling procedures and hence can not be properly interpreted. The proposed inversion method, however, could not reproduce the anomalous large phases as desired because of losing the information about rotation angles. MT phases outside the first quadrant are usually obtained by different anisotropic anomalies with oblique anisotropy strike. In order to achieve this challenge, the algorithm needs further developments. However, forward modeling studies with the MT data have shown that surface highly conductive heterogeneity in combination with a mid-crustal electrically anisotropic zone are required to fit the data. According to known geological and tectonic information the mid-crustal zone is interpreted as a deep aquifer related to the fractured Table Mountain Group rocks in the Cape Fold Belt. N2 - Tektonische und geologische Prozesse verursachen häufig eine strukturelle Anisotropie des Untergrundes, welche von verschiedenen geophysikalischen Methoden beobachtet werden kann. Zur Erstellung und Interpretation geeigneter, realistischer Modelle der Erde sind Inversionsalgorithmen notwendig, die einen anisotropen Untergrund einbeziehen können. Für die vorliegende Arbeit habe ich einen magnetotellurischen (MT) Datensatz vom Cape Fold Gürtel in Südafrika untersucht. Diese Daten weisen auf eine ausgeprägte Anisotropie der Kruste hin, da z.B. die MT Phasen außerhalb des erwarteten Quadranten liegen und nicht durch standardisierte isotrope Inversionsalgorithmen angepasst und ausgewertet werden können. Um dieses Problem zu beheben, habe ich eine zweidimensionale Inversionsmethode entwickelt, welche eine anisotrope elektrische Leitfähigkeitsverteilungen in den Modellen zulässt. Die MT Inversion ist im allgemeinen ein nichtlineares, schlecht gestelltes Minimierungsproblem mit einer hohen Anzahl an Freiheitsgraden. Im isotropen Fall wird jeder Gitterzelle eines Modells ein elektrischer Leitfähigkeitswert zugewiesen um den Erduntergrund nachzubilden. Ein Modell mit beispielsweise 100 x 50 Zellen besitzt 5000 unbekannte Modellparameter. Im Gegensatz dazu haben wir im anisotropen Fall die sechsfache Anzahl, da hier aus dem einfachen Zahlenwert der elektrischen Leitfähigkeit ein symmetrischer, reellwertiger Tensor wird, wobei die Anzahl der Daten gleich bleibt. Für die erfolgreiche Inversion von anisotropen Leitfähigkeiten und um die Nicht-Eindeutigkeit der Lösung des inversen Problems zu überwinden, ist eine geeignete Einschränkung der möglichen Modelle absolut notwendig. Dies wird umso wichtiger, da die Sensitivität von MT Daten nicht für alle Anisotropieparameter gleich ist. In der vorliegenden Arbeit habe ich einen Algorithmus entwickelt, welcher die Lösung des anisotropen Inversionsproblems unter Minimierung einer globalen Straffunktion berechnet. Diese besteht aus drei Teilen: der Datenanpassung, den Zusatzbedingungen an die Glätte des Modells und die Anisotropie. Im Gegensatz dazu werden beim isotropen Fall nur die ersten zwei Parameter minimiert. Der neu definierte Anisotropieterm wird mit Hilfe der Summe der quadratischen Abweichung der Hauptleitfähigkeitswerte des Modells gemessen. Die grundlegende Idee dieser Zusatzbedingung ist einfach. Falls ein isotropes Modell die Daten ausreichend gut anpassen kann, wird keine elektrische Anisotropie zusätzlich in das Modell eingefügt. Um eine erfolgreiche Inversion zu garantieren müssen geeignete Regularisierungsparameter für die verschiedenen Nebenbedingungen an das Modell gewählt werden. Tests mit synthetischen Modellen zeigen, dass bei festgesetzten Regularisierungsparametern die Inversion meistens entweder in einem glatten Modell mit hohem RMS Fehler oder einem groben Modell mit kleinem RMS Fehler endet. Die Anwendung einer Relaxationsbedingung auf die Regularisierung nach jedem Iterationsschritt resultiert in glatteren Inversionsmodellen und einer höheren Konvergenz und scheint ein ausgereifter Weg zur Wahl der Parameter zu sein. Die vorgestellte Inversionsmethode ist im allgemeinen in der Lage die Hauptleitfähigkeiten in der horizontalen Ebene zu finden. Wenn keine der Hauptrichtungen der Anisotropiestruktur mit der vorgegebenen Streichrichtung übereinstimmt, können nur die dazugehörigen effektiven Leitfähigkeiten, welche die Projektion der Hauptleitfähigkeiten auf die Koordinatenachsen des Modells darstellen, aufgelöst werden. Allerdings gehen die Informationen über die Rotationswinkel verloren. Am Ende meiner Arbeit werden die MT Daten des Cape Fold Gürtels in Südafrika analysiert. Die MT Daten zeigen in einem Abschnitt des Messprofils (> 10 km) Phasen über 90 Grad. Dieser Teil der Daten kann nicht mit herkömmlichen isotropen Modellierungsverfahren angepasst und daher mit diesen auch nicht vollständig ausgewertet werden. Die vorgestellte Inversionsmethode konnte die außergewöhnlich hohen Phasenwerte nicht wie gewünscht im Inversionsergebnis erreichen, was mit dem erwähnten Informationsverlust der Rotationswinkel begründet werden kann. MT Phasen außerhalb des ersten Quadranten können für gewöhnlich bei Anomalien mit geneigter Streichrichtung der Anisotropie gemessen werden. Um diese auch in den Inversionsergebnissen zu erreichen ist eine Weiterentwicklung des Algorithmus notwendig. Vorwärtsmodellierungen des MT Datensatzes haben allerdings gezeigt, dass eine hohe Leitfähigkeitsheterogenität an der Oberfläche in Kombination mit einer Zone elektrischer Anisotropie in der mittleren Kruste notwendig sind um die Daten anzupassen. Aufgrund geologischer und tektonischer Informationen kann diese Zone in der mittleren Kruste als tiefer Aquifer interpretiert werden, der im Zusammenhang mit den zerrütteten Gesteinen der Table Mountain Group des Cape Fold Gürtels steht. KW - Magnetotellurik KW - Anisotrope Inversion KW - Regularisierung KW - Anisotropie der Leitfähigkeit KW - magnetotelluric KW - anisotropic inversion KW - regularization KW - conductivity anisotropy Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63163 ER -