TY - THES A1 - Zauber, Henrik T1 - A systems biology driven approach for analyzing lipid protein interactions in sterol biosynthesis mutants Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Yu, Linghui T1 - Hydrothermal synthesis of carbon and carbon nanocomposite materials for environmental and energy applications Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Yang, Haojin T1 - Automatic video indexing and retrieval using video ocr technology Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Wechakama, Maneenate T1 - Multi-messenger constraints and pressure from dark matter annihilation into electron-positron pairs T1 - Multi-Messenger-Grenzen und Druck von Dunkler Materie-Annihilation in Elektron-Positron-Paaren N2 - Despite striking evidence for the existence of dark matter from astrophysical observations, dark matter has still escaped any direct or indirect detection until today. Therefore a proof for its existence and the revelation of its nature belongs to one of the most intriguing challenges of nowadays cosmology and particle physics. The present work tries to investigate the nature of dark matter through indirect signatures from dark matter annihilation into electron-positron pairs in two different ways, pressure from dark matter annihilation and multi-messenger constraints on the dark matter annihilation cross-section. We focus on dark matter annihilation into electron-positron pairs and adopt a model-independent approach, where all the electrons and positrons are injected with the same initial energy E_0 ~ m_dm*c^2. The propagation of these particles is determined by solving the diffusion-loss equation, considering inverse Compton scattering, synchrotron radiation, Coulomb collisions, bremsstrahlung, and ionization. The first part of this work, focusing on pressure from dark matter annihilation, demonstrates that dark matter annihilation into electron-positron pairs may affect the observed rotation curve by a significant amount. The injection rate of this calculation is constrained by INTEGRAL, Fermi, and H.E.S.S. data. The pressure of the relativistic electron-positron gas is computed from the energy spectrum predicted by the diffusion-loss equation. For values of the gas density and magnetic field that are representative of the Milky Way, it is estimated that the pressure gradients are strong enough to balance gravity in the central parts if E_0 < 1 GeV. The exact value depends somewhat on the astrophysical parameters, and it changes dramatically with the slope of the dark matter density profile. For very steep slopes, as those expected from adiabatic contraction, the rotation curves of spiral galaxies would be affected on kiloparsec scales for most values of E_0. By comparing the predicted rotation curves with observations of dwarf and low surface brightness galaxies, we show that the pressure from dark matter annihilation may improve the agreement between theory and observations in some cases, but it also imposes severe constraints on the model parameters (most notably, the inner slope of the halo density profile, as well as the mass and the annihilation cross-section of dark matter particles into electron-positron pairs). In the second part, upper limits on the dark matter annihilation cross-section into electron-positron pairs are obtained by combining observed data at different wavelengths (from Haslam, WMAP, and Fermi all-sky intensity maps) with recent measurements of the electron and positron spectra in the solar neighbourhood by PAMELA, Fermi, and H.E.S.S.. We consider synchrotron emission in the radio and microwave bands, as well as inverse Compton scattering and final-state radiation at gamma-ray energies. For most values of the model parameters, the tightest constraints are imposed by the local positron spectrum and synchrotron emission from the central regions of the Galaxy. According to our results, the annihilation cross-section should not be higher than the canonical value for a thermal relic if the mass of the dark matter candidate is smaller than a few GeV. In addition, we also derive a stringent upper limit on the inner logarithmic slope α of the density profile of the Milky Way dark matter halo (α < 1 if m_dm < 5 GeV, α < 1.3 if m_dm < 100 GeV and α < 1.5 if m_dm < 2 TeV) assuming a dark matter annihilation cross-section into electron-positron pairs (σv) = 3*10^−26 cm^3 s^−1, as predicted for thermal relics from the big bang. N2 - Trotz vieler Hinweise auf die Existenz von dunkler Materie durch astrophysikalische Beobachtungen hat sich die dunkle Materie bis heute einem direkten oder indirekten Nachweis entzogen. Daher gehrt der Nachweis ihrer Existenz und die Enthüllung ihrer Natur zu einem der faszinierensten Herausforderungen der heutigen Kosmologie und Teilchenphysik. Diese Arbeit versucht die Natur von dunkler Materie durch indirekte Signaturen von der Paarzerstrahlung dunkler Materie in Elektron-Positronpaare auf zwei verschiedene Weisen zu untersuchen, nämlich anhand des Drucks durch die Paarzerstrahlung dunkler Materie und durch Grenzen des Wirkungsquerschnitts für die Paarzerstrahlung dunkler Materie aus verschiedenen Beobachtungsbereichen. Wir konzentrieren uns dabei auf die Zerstrahlung dunkler Materie in Elektron-Positron-Paare und betrachten einen modellunabhängigen Fall, bei dem alle Elektronen und Positronen mit der gleichen Anfangsenergie E_0 ~ m_dm*c^2 injiziert werden. Die Fortbewegung dieser Teilchen wird dabei bestimmt durch die Lösung der Diffusions-Verlust-Gleichung unter Berücksichtigung von inverser Compton-Streuung, Synchrotronstrahlung, Coulomb-Streuung, Bremsstrahlung und Ionisation. Der erste Teil dieser Arbeit zeigt, dass die Zerstrahlung dunkler Materie in Elektron-Positron-Paare die gemessene Rotationskurve signifikant beeinflussen kann. Die Produktionsrate ist dabei durch Daten von INTEGRAL, Fermi und H.E.S.S. begrenzt. Der Druck des relativistischen Elektron-Positron Gases wird aus dem Energiespektrum errechnet, welches durch die Diffusions-Verlust-Gleichung bestimmt ist. Für Werte der Gasdichte und des magnetischen Feldes, welche für unsere Galaxie repräsentativ sind, lässt sich abschätzen, dass für E_0 < 1 GeV die Druckgradienten stark genug sind, um Gravitationskräfte auszugleichen. Die genauen Werte hängen von den verwendeten astrophysikalischen Parametern ab, und sie ändern sich stark mit dem Anstieg des dunklen Materie-Profils. Für sehr große Anstiege, wie sie für adiabatische Kontraktion erwartet werden, werden die Rotationskurven von Spiralgalaxien auf Skalen von einegen Kiloparsek für die meisten Werte von E_0 beeinflusst. Durch Vergleich der erwarteten Rotationskurven mit Beobachtungen von Zwerggalaxien und Galaxien geringer Oberflächentemperatur zeigen wir, dass der Druck von Zerstrahlung dunkler Materie die Übereinstimmung von Theorie und Beobachtung in einigen Fällen verbessern kann. Aber daraus resultieren auch starke Grenzen für die Modellparameter - vor allem für den inneren Anstieg des Halo-Dichteprofils, sowie die Masse und den Wirkungsquerschnitt der dunklen Materie-Teilchen. Im zweiten Teil werden obere Grenzen für die Wirkungsquerschnitte der Zerstrahlung der dunkler Materie in Elektron-Positron-Paare erhalten, indem die beobachteten Daten bei unterschiedlichen Wellenlängen (von Haslam, WMAP und Fermi) mit aktuellen Messungen von Elektron-Positron Spektren in der solaren Nachbarschaft durch PAMELA, Fermi und H.E.S.S. kombiniert werden. Wir betrachten Synchrotronemission bei Radiound Mikrowellenfrequenzen, sowie inverse Compton-Streuung und Final-State-Strahlung bei Energien im Bereich der Gamma-Strahlung. Für die meisten Werte der Modellparameter werden die stärksten Schranken durch das lokale Positron-Spektrum und die Synchrotronemission im Zentrum unser Galaxie bestimmt. Nach diesen Ergebnissen sollte der Wirkungsquerschnitt für die Paarzerstrahlung nicht größer als der kanonische Wert für thermische Relikte sein, wenn die Masse der dunklen Materie-Kandidaten kleiner als einige GeV ist. Zusätzlich leiten wir eine obere Grenze für den inneren logarithmische Anstieg α des Dichteprofiles des dunklen Materie Halos unserer Galaxie ab. KW - dunkle Materie KW - Astroteilchenphysik KW - Strahlung Mechanismen KW - Galaxy Struktur KW - Rotationskurven KW - dark matter KW - astroparticle physics KW - radiation mechanisms KW - galaxy structure KW - rotation curves Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-67401 ER - TY - THES A1 - Wang, Ting T1 - A novel R2R3 MYB-like transcription factor regulates ABA mediated stress response and leaf growth in Arabidopsis Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Vorpahl, Peter T1 - Spatiotemporal dynamics of shallow translational landslides in tropical montane forests Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Vogel, Kristin T1 - Applications of Bayesian networks in natural hazard assessments T1 - Anwendungen von Bayes'schen Netzen bei der Einschätzung von Naturgefahren N2 - Even though quite different in occurrence and consequences, from a modeling perspective many natural hazards share similar properties and challenges. Their complex nature as well as lacking knowledge about their driving forces and potential effects make their analysis demanding: uncertainty about the modeling framework, inaccurate or incomplete event observations and the intrinsic randomness of the natural phenomenon add up to different interacting layers of uncertainty, which require a careful handling. Nevertheless deterministic approaches are still widely used in natural hazard assessments, holding the risk of underestimating the hazard with disastrous effects. The all-round probabilistic framework of Bayesian networks constitutes an attractive alternative. In contrast to deterministic proceedings, it treats response variables as well as explanatory variables as random variables making no difference between input and output variables. Using a graphical representation Bayesian networks encode the dependency relations between the variables in a directed acyclic graph: variables are represented as nodes and (in-)dependencies between variables as (missing) edges between the nodes. The joint distribution of all variables can thus be described by decomposing it, according to the depicted independences, into a product of local conditional probability distributions, which are defined by the parameters of the Bayesian network. In the framework of this thesis the Bayesian network approach is applied to different natural hazard domains (i.e. seismic hazard, flood damage and landslide assessments). Learning the network structure and parameters from data, Bayesian networks reveal relevant dependency relations between the included variables and help to gain knowledge about the underlying processes. The problem of Bayesian network learning is cast in a Bayesian framework, considering the network structure and parameters as random variables itself and searching for the most likely combination of both, which corresponds to the maximum a posteriori (MAP score) of their joint distribution given the observed data. Although well studied in theory the learning of Bayesian networks based on real-world data is usually not straight forward and requires an adoption of existing algorithms. Typically arising problems are the handling of continuous variables, incomplete observations and the interaction of both. Working with continuous distributions requires assumptions about the allowed families of distributions. To "let the data speak" and avoid wrong assumptions, continuous variables are instead discretized here, thus allowing for a completely data-driven and distribution-free learning. An extension of the MAP score, considering the discretization as random variable as well, is developed for an automatic multivariate discretization, that takes interactions between the variables into account. The discretization process is nested into the network learning and requires several iterations. Having to face incomplete observations on top, this may pose a computational burden. Iterative proceedings for missing value estimation become quickly infeasible. A more efficient albeit approximate method is used instead, estimating the missing values based only on the observations of variables directly interacting with the missing variable. Moreover natural hazard assessments often have a primary interest in a certain target variable. The discretization learned for this variable does not always have the required resolution for a good prediction performance. Finer resolutions for (conditional) continuous distributions are achieved with continuous approximations subsequent to the Bayesian network learning, using kernel density estimations or mixtures of truncated exponential functions. All our proceedings are completely data-driven. We thus avoid assumptions that require expert knowledge and instead provide domain independent solutions, that are applicable not only in other natural hazard assessments, but in a variety of domains struggling with uncertainties. N2 - Obwohl Naturgefahren in ihren Ursachen, Erscheinungen und Auswirkungen grundlegend verschieden sind, teilen sie doch viele Gemeinsamkeiten und Herausforderungen, wenn es um ihre Modellierung geht. Fehlendes Wissen über die zugrunde liegenden Kräfte und deren komplexes Zusammenwirken erschweren die Wahl einer geeigneten Modellstruktur. Hinzu kommen ungenaue und unvollständige Beobachtungsdaten sowie dem Naturereignis innewohnende Zufallsprozesse. All diese verschiedenen, miteinander interagierende Aspekte von Unsicherheit erfordern eine sorgfältige Betrachtung, um fehlerhafte und verharmlosende Einschätzungen von Naturgefahren zu vermeiden. Dennoch sind deterministische Vorgehensweisen in Gefährdungsanalysen weit verbreitet. Bayessche Netze betrachten die Probleme aus wahrscheinlichkeitstheoretischer Sicht und bieten somit eine sinnvolle Alternative zu deterministischen Verfahren. Alle vom Zufall beeinflussten Größen werden hierbei als Zufallsvariablen angesehen. Die gemeinsame Wahrscheinlichkeitsverteilung aller Variablen beschreibt das Zusammenwirken der verschiedenen Einflussgrößen und die zugehörige Unsicherheit/Zufälligkeit. Die Abhängigkeitsstrukturen der Variablen können durch eine grafische Darstellung abgebildet werden. Die Variablen werden dabei als Knoten in einem Graphen/Netzwerk dargestellt und die (Un-)Abhängigkeiten zwischen den Variablen als (fehlende) Verbindungen zwischen diesen Knoten. Die dargestellten Unabhängigkeiten veranschaulichen, wie sich die gemeinsame Wahrscheinlichkeitsverteilung in ein Produkt lokaler, bedingter Wahrscheinlichkeitsverteilungen zerlegen lässt. Im Verlauf dieser Arbeit werden verschiedene Naturgefahren (Erdbeben, Hochwasser und Bergstürze) betrachtet und mit Bayesschen Netzen modelliert. Dazu wird jeweils nach der Netzwerkstruktur gesucht, welche die Abhängigkeiten der Variablen am besten beschreibt. Außerdem werden die Parameter der lokalen, bedingten Wahrscheinlichkeitsverteilungen geschätzt, um das Bayessche Netz und dessen zugehörige gemeinsame Wahrscheinlichkeitsverteilung vollständig zu bestimmen. Die Definition des Bayesschen Netzes kann auf Grundlage von Expertenwissen erfolgen oder - so wie in dieser Arbeit - anhand von Beobachtungsdaten des zu untersuchenden Naturereignisses. Die hier verwendeten Methoden wählen Netzwerkstruktur und Parameter so, dass die daraus resultierende Wahrscheinlichkeitsverteilung den beobachteten Daten eine möglichst große Wahrscheinlichkeit zuspricht. Da dieses Vorgehen keine Expertenwissen voraussetzt, ist es universell in verschiedenen Gebieten der Gefährdungsanalyse einsetzbar. Trotz umfangreicher Forschung zu diesem Thema ist das Bestimmen von Bayesschen Netzen basierend auf Beobachtungsdaten nicht ohne Schwierigkeiten. Typische Herausforderungen stellen die Handhabung stetiger Variablen und unvollständiger Datensätze dar. Beide Probleme werden in dieser Arbeit behandelt. Es werden Lösungsansätze entwickelt und in den Anwendungsbeispielen eingesetzt. Eine Kernfrage ist hierbei die Komplexität des Algorithmus. Besonders wenn sowohl stetige Variablen als auch unvollständige Datensätze in Kombination auftreten, sind effizient arbeitende Verfahren gefragt. Die hierzu in dieser Arbeit entwickelten Methoden ermöglichen die Verarbeitung von großen Datensätze mit stetigen Variablen und unvollständigen Beobachtungen und leisten damit einen wichtigen Beitrag für die wahrscheinlichkeitstheoretische Gefährdungsanalyse. KW - Bayes'sche Netze KW - Naturgefahren KW - Gefahrenanalyse KW - Unsicherheiten KW - Hochwasser KW - Bayesian networks KW - natural hazards KW - hazard assessments KW - uncertainties KW - flood events Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69777 ER - TY - THES A1 - Verma, Meetu T1 - The evolution and decay of sunspots : a hight-resolution study of flows and magnetic fields in and around sunspots Y1 - 2013 CY - Potsdam ER - TY - THES A1 - Uhlemann, Steffi T1 - Understanding trans-basin floods in Germany : data, information and knowledge T1 - Flussgebietsübergreifende Hochwasserereignisse in Deutschland : Daten, Informationen und Wissen. N2 - Large Central European flood events of the past have demonstrated that flooding can affect several river basins at the same time leading to catastrophic economic and humanitarian losses that can stretch emergency resources beyond planned levels of service. For Germany, the spatial coherence of flooding, the contributing processes and the role of trans-basin floods for a national risk assessment is largely unknown and analysis is limited by a lack of systematic data, information and knowledge on past events. This study investigates the frequency and intensity of trans-basin flood events in Germany. It evaluates the data and information basis on which knowledge about trans-basin floods can be generated in order to improve any future flood risk assessment. In particu-lar, the study assesses whether flood documentations and related reports can provide a valuable data source for understanding trans-basin floods. An adaptive algorithm was developed that systematically captures trans-basin floods using series of mean daily discharge at a large number of sites of even time series length (1952-2002). It identifies the simultaneous occurrence of flood peaks based on the exceedance of an initial threshold of a 10 year flood at one location and consecutively pools all causally related, spatially and temporally lagged peak recordings at the other locations. A weighted cumulative index was developed that accounts for the spatial extent and the individual flood magnitudes within an event and allows quantifying the overall event severity. The parameters of the method were tested in a sensitivity analysis. An intensive study on sources and ways of information dissemination of flood-relevant publications in Germany was conducted. Based on the method of systematic reviews a strategic search approach was developed to identify relevant documentations for each of the 40 strongest trans-basin flood events. A novel framework for assessing the quality of event specific flood reports from a user’s perspective was developed and validated by independent peers. The framework was designed to be generally applicable for any natural hazard type and assesses the quality of a document addressing accessibility as well as representational, contextual, and intrinsic dimensions of quality. The analysis of time-series of mean daily discharge resulted in the identification of 80 trans-basin flood events within the period 1952-2002 in Germany. The set is dominated by events that were recorded in the hydrological winter (64%); 36% occurred during the summer months. The occurrence of floods is characterised by a distinct clustering in time. Dividing the study period into two sub-periods, we find an increase in the percentage of winter events from 58% in the first to 70.5% in the second sub-period. Accordingly, we find a significant increase in the number of extreme trans-basin floods in the second sub-period. A large body of 186 flood relevant documentations was identified. For 87.5% of the 40 strongest trans-basin floods in Germany at least one report has been found and for the most severe floods a substantial amount of documentation could be obtained. 80% of the material can be considered grey literature (i.e. literature not controlled by commercial publishers). The results of the quality assessment show that the majority of flood event specific reports are of a good quality, i.e. they are well enough drafted, largely accurate and objective, and contain a substantial amount of information on the sources, pathways and receptors/consequences of the floods. The inclusion of this information in the process of knowledge building for flood risk assessment is recommended. Both the results as well as the data produced in this study are openly accessible and can be used for further research. The results of this study contribute to an improved spatial risk assessment in Germany. The identified set of trans-basin floods provides the basis for an assessment of the chance that flooding occurs simultaneously at a number of sites. The information obtained from flood event documentation can usefully supplement the analysis of the processes that govern flood risk. N2 - Abschätzungen zum Hochwasserrisiko beschränken sich zumeist auf die Analyse innerhalb eines Einzugsgebietes bzw. eines bestimmten Ortes. Die Zusammenhänge in größeren Regionen und vor allem Korrelationen zwischen verschiedenen Einzugsgebieten werden nur selten betrachtet. Solche einzugsgebietsübergreifenden Analysen sind jedoch sowohl für die Versicherungswirtschaft, den Katastrophenschutz sowie für großräumige strategische Hochwasserplanungen notwendig. Allerdings stehen nur für eine geringe Auswahl historischer Ereignisse Daten zur Verfügung und systematische Ansätze zu ihrer Erfassung wurden für Deutschland bisher nicht entwickelt. Die vorliegende Studie untersucht zum ersten die Häufigkeit und Intensität von flussgebietsübergreifenden Hochwasserereignissen in Deutschland anhand von gemessenen Abflüssen an einer Vielzahl von Stationen. Es können insgesamt 80 Hochwasserereignisse in Deutschland im Zeitraum von 1952-2002 nachgewiesen werden. Davon treten die meisten Ereignissen im hydrologischen Winterhalbjahr auf (64%). Wir können nachweisen, dass die Häufigkeit des Auftretens in verschiedenen Perioden unterschiedlich ist, und dass im Untersuchungszeitraum eine signifikante Zunahme von Winterereignissen und damit vor allem von sehr schweren flussgebietsübergreifenden Hochwasserereignissen zu verzeichnen ist. Die Studie hatte des Weiteren zum Ziel, die verfügbare Daten- und Informationsgrundlage zur Hochwasseranalyse zu erkunden. Im speziellen wird untersucht, inwieweit Hochwasserereignisdokumentationen und verwandte Berichte als eine weitere Datenquelle für ein verbessertes Prozessverständnis genutzt werden können. Im Rahmen einer systematischen Suche konnten für die 40 größten Hochwasserereignisse in Deutschland 186 relevante Berichte identifiziert werden. 80% des Materials kann als Grauliteratur eingestuft werden, d.h. als Veröffentlichungen welche nicht durch kommerzielle Verleger publiziert wird. Die sich daraus ergebende Frage nach der Qualität der Dokumente und ihres Informationsgehaltes wurde durch die Entwicklung und Anwendung eines Qualitätsbewertungsschemas beantwortet. Die Ergebnisse der Qualitätsbewertung zeigen, dass die Mehrheit der ereignisspezifischen Hochwasserberichte von guter Qualität ist, d.h. die Berichte sind in ausreichender Qualität verfasst, größtenteils korrekt und objektiv und beinhalten eine substantielle Menge an Informationen zu den Ursachen, Verläufen, betroffenen Objekten und Schäden eines Ereignisses. Es wird empfohlen diese Informationen in die Wissenssynthese für die Hochwasserrisikobewertung einfließen zu lassen. Sowohl Ergebnisse als auch Daten dieser Studie sind so publiziert, dass sie öffentlich zugänglich sind und für weitere Forschungsfragen genutzt werden können. KW - Hochwasser KW - Deutschland KW - Grauliteratur KW - Ereignisdokumentation KW - Qualitätsbewertung KW - floods KW - Germany KW - grey literature KW - event documentation KW - quality assessment framework Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-68868 ER - TY - THES A1 - Trapp, Matthias T1 - Interactive rendering techniques for focus+context visualization of 3D geovirtual environments T1 - Interaktive Rendering-Techniken für die Fokus-&-Kontext-Visualisierung von geovirtuellen 3D-Umgebungen N2 - This thesis introduces a collection of new real-time rendering techniques and applications for focus+context visualization of interactive 3D geovirtual environments such as virtual 3D city and landscape models. These environments are generally characterized by a large number of objects and are of high complexity with respect to geometry and textures. For these reasons, their interactive 3D rendering represents a major challenge. Their 3D depiction implies a number of weaknesses such as occlusions, cluttered image contents, and partial screen-space usage. To overcome these limitations and, thus, to facilitate the effective communication of geo-information, principles of focus+context visualization can be used for the design of real-time 3D rendering techniques for 3D geovirtual environments (see Figure). In general, detailed views of a 3D geovirtual environment are combined seamlessly with abstracted views of the context within a single image. To perform the real-time image synthesis required for interactive visualization, dedicated parallel processors (GPUs) for rasterization of computer graphics primitives are used. For this purpose, the design and implementation of appropriate data structures and rendering pipelines are necessary. The contribution of this work comprises the following five real-time rendering methods: • The rendering technique for 3D generalization lenses enables the combination of different 3D city geometries (e.g., generalized versions of a 3D city model) in a single image in real time. The method is based on a generalized and fragment-precise clipping approach, which uses a compressible, raster-based data structure. It enables the combination of detailed views in the focus area with the representation of abstracted variants in the context area. • The rendering technique for the interactive visualization of dynamic raster data in 3D geovirtual environments facilitates the rendering of 2D surface lenses. It enables a flexible combination of different raster layers (e.g., aerial images or videos) using projective texturing for decoupling image and geometry data. Thus, various overlapping and nested 2D surface lenses of different contents can be visualized interactively. • The interactive rendering technique for image-based deformation of 3D geovirtual environments enables the real-time image synthesis of non-planar projections, such as cylindrical and spherical projections, as well as multi-focal 3D fisheye-lenses and the combination of planar and non-planar projections. • The rendering technique for view-dependent multi-perspective views of 3D geovirtual environments, based on the application of global deformations to the 3D scene geometry, can be used for synthesizing interactive panorama maps to combine detailed views close to the camera (focus) with abstract views in the background (context). This approach reduces occlusions, increases the usage the available screen space, and reduces the overload of image contents. • The object-based and image-based rendering techniques for highlighting objects and focus areas inside and outside the view frustum facilitate preattentive perception. The concepts and implementations of interactive image synthesis for focus+context visualization and their selected applications enable a more effective communication of spatial information, and provide building blocks for design and development of new applications and systems in the field of 3D geovirtual environments. N2 - Die Darstellung immer komplexerer raumbezogener Information durch Geovisualisierung stellt die existierenden Technologien und den Menschen ständig vor neue Herausforderungen. In dieser Arbeit werden fünf neue, echtzeitfähige Renderingverfahren und darauf basierende Anwendungen für die Fokus-&-Kontext-Visualisierung von interaktiven geovirtuellen 3D-Umgebungen – wie virtuelle 3D-Stadt- und Landschaftsmodelle – vorgestellt. Die große Menge verschiedener darzustellender raumbezogener Information in 3D-Umgebungen führt oft zu einer hohen Anzahl unterschiedlicher Objekte und somit zu einer hohen Geometrie- und Texturkomplexität. In der Folge verlieren 3D-Darstellungen durch Verdeckungen, überladene Bildinhalte und eine geringe Ausnutzung des zur Verfügung stehenden Bildraumes an Informationswert. Um diese Beschränkungen zu kompensieren und somit die Kommunikation raumbezogener Information zu verbessern, kann das Prinzip der Fokus-&-Kontext-Visualisierung angewendet werden. Hierbei wird die für den Nutzer wesentliche Information als detaillierte Ansicht im Fokus mit abstrahierter Kontextinformation nahtlos miteinander kombiniert. Um das für die interaktive Visualisierung notwendige Echtzeit-Rendering durchzuführen, können spezialisierte Parallelprozessoren für die Rasterisierung von computergraphischen Primitiven (GPUs) verwendet werden. Dazu ist die Konzeption und Implementierung von geeigneten Datenstrukturen und Rendering-Pipelines notwendig. Der Beitrag dieser Arbeit umfasst die folgenden fünf Renderingverfahren. • Das Renderingverfahren für interaktive 3D-Generalisierungslinsen: Hierbei wird die Kombination unterschiedlicher 3D-Szenengeometrien, z. B. generalisierte Varianten eines 3DStadtmodells, in einem Bild ermöglicht. Das Verfahren basiert auf einem generalisierten Clipping-Ansatz, der es erlaubt, unter Verwendung einer komprimierbaren, rasterbasierten Datenstruktur beliebige Bereiche einer 3D-Szene freizustellen bzw. zu kappen. Somit lässt sich eine Kombination von detaillierten Ansichten im Fokusbereich mit der Darstellung einer abstrahierten Variante im Kontextbereich implementieren. • Das Renderingverfahren zur Visualisierung von dynamischen Raster-Daten in geovirtuellen 3D-Umgebungen zur Darstellung von 2D-Oberflächenlinsen: Die Verwendung von projektiven Texturen zur Entkoppelung von Bild- und Geometriedaten ermöglicht eine flexible Kombination verschiedener Rasterebenen (z.B. Luftbilder oder Videos). Somit können verschiedene überlappende sowie verschachtelte 2D-Oberflächenlinsen mit unterschiedlichen Dateninhalten interaktiv visualisiert werden. • Das Renderingverfahren zur bildbasierten Deformation von geovirtuellen 3D-Umgebungen: Neben der interaktiven Bildsynthese von nicht-planaren Projektionen, wie beispielsweise zylindrischen oder sphärischen Panoramen, lassen sich mit diesem Verfahren multifokale 3D-Fischaugen-Linsen erzeugen sowie planare und nicht-planare Projektionen miteinander kombinieren. • Das Renderingverfahren für die Generierung von sichtabhängigen multiperspektivischen Ansichten von geovirtuellen 3D-Umgebungen: Das Verfahren basiert auf globalen Deformationen der 3D-Szenengeometrie und kann zur Erstellung von interaktiven 3D-Panoramakarten verwendet werden, welche beispielsweise detaillierte Absichten nahe der virtuellen Kamera (Fokus) mit abstrakten Ansichten im Hintergrund (Kontext) kombinieren. Dieser Ansatz reduziert Verdeckungen, nutzt den zur Verfügung stehenden Bildraum in verbesserter Weise aus und reduziert das Überladen von Bildinhalten. • Objekt-und bildbasierte Renderingverfahren für die Hervorhebung von Fokus-Objekten und Fokus-Bereichen innerhalb und außerhalb des sichtbaren Bildausschnitts, um die präattentive Wahrnehmung eines Benutzers besser zu unterstützen. Die in dieser Arbeit vorgestellten Konzepte, Entwürfe und Implementierungen von interaktiven Renderingverfahren zur Fokus-&-Kontext-Visualisierung sowie deren ausgewählte Anwendungen ermöglichen eine effektivere Kommunikation raumbezogener Information und repräsentieren softwaretechnische Bausteine für die Entwicklung neuer Anwendungen und Systeme im Bereich der geovirtuellen 3D-Umgebungen. KW - 3D Computer Grafik KW - Interaktives Rendering KW - Fokus-&-Kontext Visualisierung KW - 3D Computer Graphics KW - Interactive Rendering KW - Focus+Context Visualization Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66824 ER -