TY - THES A1 - Wolf, Johannes T1 - Analysis and visualization of transport infrastructure based on large-scale geospatial mobile mapping data T1 - Analyse und Visualisierung von Verkehrsinfrastruktur basierend auf großen Mobile-Mapping-Datensätzen N2 - 3D point clouds are a universal and discrete digital representation of three-dimensional objects and environments. For geospatial applications, 3D point clouds have become a fundamental type of raw data acquired and generated using various methods and techniques. In particular, 3D point clouds serve as raw data for creating digital twins of the built environment. This thesis concentrates on the research and development of concepts, methods, and techniques for preprocessing, semantically enriching, analyzing, and visualizing 3D point clouds for applications around transport infrastructure. It introduces a collection of preprocessing techniques that aim to harmonize raw 3D point cloud data, such as point density reduction and scan profile detection. Metrics such as, e.g., local density, verticality, and planarity are calculated for later use. One of the key contributions tackles the problem of analyzing and deriving semantic information in 3D point clouds. Three different approaches are investigated: a geometric analysis, a machine learning approach operating on synthetically generated 2D images, and a machine learning approach operating on 3D point clouds without intermediate representation. In the first application case, 2D image classification is applied and evaluated for mobile mapping data focusing on road networks to derive road marking vector data. The second application case investigates how 3D point clouds can be merged with ground-penetrating radar data for a combined visualization and to automatically identify atypical areas in the data. For example, the approach detects pavement regions with developing potholes. The third application case explores the combination of a 3D environment based on 3D point clouds with panoramic imagery to improve visual representation and the detection of 3D objects such as traffic signs. The presented methods were implemented and tested based on software frameworks for 3D point clouds and 3D visualization. In particular, modules for metric computation, classification procedures, and visualization techniques were integrated into a modular pipeline-based C++ research framework for geospatial data processing, extended by Python machine learning scripts. All visualization and analysis techniques scale to large real-world datasets such as road networks of entire cities or railroad networks. The thesis shows that some use cases allow taking advantage of established image vision methods to analyze images rendered from mobile mapping data efficiently. The two presented semantic classification methods working directly on 3D point clouds are use case independent and show similar overall accuracy when compared to each other. While the geometry-based method requires less computation time, the machine learning-based method supports arbitrary semantic classes but requires training the network with ground truth data. Both methods can be used in combination to gradually build this ground truth with manual corrections via a respective annotation tool. This thesis contributes results for IT system engineering of applications, systems, and services that require spatial digital twins of transport infrastructure such as road networks and railroad networks based on 3D point clouds as raw data. It demonstrates the feasibility of fully automated data flows that map captured 3D point clouds to semantically classified models. This provides a key component for seamlessly integrated spatial digital twins in IT solutions that require up-to-date, object-based, and semantically enriched information about the built environment. N2 - 3D-Punktwolken sind eine universelle und diskrete digitale Darstellung von dreidimensionalen Objekten und Umgebungen. Für raumbezogene Anwendungen sind 3D-Punktwolken zu einer grundlegenden Form von Rohdaten geworden, die mit verschiedenen Methoden und Techniken erfasst und erzeugt werden. Insbesondere dienen 3D-Punktwolken als Rohdaten für die Erstellung digitaler Zwillinge der bebauten Umwelt. Diese Arbeit konzentriert sich auf die Erforschung und Entwicklung von Konzepten, Methoden und Techniken zur Vorverarbeitung, semantischen Anreicherung, Analyse und Visualisierung von 3D-Punktwolken für Anwendungen im Bereich der Verkehrsinfrastruktur. Es wird eine Sammlung von Vorverarbeitungstechniken vorgestellt, die auf die Harmonisierung von 3D-Punktwolken-Rohdaten abzielen, so z.B. die Reduzierung der Punktdichte und die Erkennung von Scanprofilen. Metriken wie bspw. die lokale Dichte, Vertikalität und Planarität werden zur späteren Verwendung berechnet. Einer der Hauptbeiträge befasst sich mit dem Problem der Analyse und Ableitung semantischer Informationen in 3D-Punktwolken. Es werden drei verschiedene Ansätze untersucht: Eine geometrische Analyse sowie zwei maschinelle Lernansätze, die auf synthetisch erzeugten 2D-Bildern, bzw. auf 3D-Punktwolken ohne Zwischenrepräsentation arbeiten. Im ersten Anwendungsfall wird die 2D-Bildklassifikation für Mobile-Mapping-Daten mit Fokus auf Straßennetze angewendet und evaluiert, um Vektordaten für Straßenmarkierungen abzuleiten. Im zweiten Anwendungsfall wird untersucht, wie 3D-Punktwolken mit Bodenradardaten für eine kombinierte Visualisierung und automatische Identifikation atypischer Bereiche in den Daten zusammengeführt werden können. Der Ansatz erkennt zum Beispiel Fahrbahnbereiche mit entstehenden Schlaglöchern. Der dritte Anwendungsfall untersucht die Kombination einer 3D-Umgebung auf Basis von 3D-Punktwolken mit Panoramabildern, um die visuelle Darstellung und die Erkennung von 3D-Objekten wie Verkehrszeichen zu verbessern. Die vorgestellten Methoden wurden auf Basis von Software-Frameworks für 3D-Punktwolken und 3D-Visualisierung implementiert und getestet. Insbesondere wurden Module für Metrikberechnungen, Klassifikationsverfahren und Visualisierungstechniken in ein modulares, pipelinebasiertes C++-Forschungsframework für die Geodatenverarbeitung integriert, das durch Python-Skripte für maschinelles Lernen erweitert wurde. Alle Visualisierungs- und Analysetechniken skalieren auf große reale Datensätze wie Straßennetze ganzer Städte oder Eisenbahnnetze. Die Arbeit zeigt, dass es in einigen Anwendungsfällen möglich ist, die Vorteile etablierter Bildverarbeitungsmethoden zu nutzen, um aus Mobile-Mapping-Daten gerenderte Bilder effizient zu analysieren. Die beiden vorgestellten semantischen Klassifikationsverfahren, die direkt auf 3D-Punktwolken arbeiten, sind anwendungsfallunabhängig und zeigen im Vergleich zueinander eine ähnliche Gesamtgenauigkeit. Während die geometriebasierte Methode weniger Rechenzeit benötigt, unterstützt die auf maschinellem Lernen basierende Methode beliebige semantische Klassen, erfordert aber das Trainieren des Netzwerks mit Ground-Truth-Daten. Beide Methoden können in Kombination verwendet werden, um diese Ground Truth mit manuellen Korrekturen über ein entsprechendes Annotationstool schrittweise aufzubauen. Diese Arbeit liefert Ergebnisse für das IT-System-Engineering von Anwendungen, Systemen und Diensten, die räumliche digitale Zwillinge von Verkehrsinfrastruktur wie Straßen- und Schienennetzen auf der Basis von 3D-Punktwolken als Rohdaten benötigen. Sie demonstriert die Machbarkeit von vollautomatisierten Datenflüssen, die erfasste 3D-Punktwolken auf semantisch klassifizierte Modelle abbilden. Dies stellt eine Schlüsselkomponente für nahtlos integrierte räumliche digitale Zwillinge in IT-Lösungen dar, die aktuelle, objektbasierte und semantisch angereicherte Informationen über die bebaute Umwelt benötigen. KW - 3D point cloud KW - geospatial data KW - mobile mapping KW - semantic classification KW - 3D visualization KW - 3D-Punktwolke KW - räumliche Geodaten KW - Mobile Mapping KW - semantische Klassifizierung KW - 3D-Visualisierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536129 ER - TY - THES A1 - Stojanovic, Vladeta T1 - Digital twins for indoor built environments T1 - Digitale Zwillinge für gebaute Innenumgebungen N2 - One of the key challenges in modern Facility Management (FM) is to digitally reflect the current state of the built environment, referred to as-is or as-built versus as-designed representation. While the use of Building Information Modeling (BIM) can address the issue of digital representation, the generation and maintenance of BIM data requires a considerable amount of manual work and domain expertise. Another key challenge is being able to monitor the current state of the built environment, which is used to provide feedback and enhance decision making. The need for an integrated solution for all data associated with the operational life cycle of a building is becoming more pronounced as practices from Industry 4.0 are currently being evaluated and adopted for FM use. This research presents an approach for digital representation of indoor environments in their current state within the life cycle of a given building. Such an approach requires the fusion of various sources of digital data. The key to solving such a complex issue of digital data integration, processing and representation is with the use of a Digital Twin (DT). A DT is a digital duplicate of the physical environment, states, and processes. A DT fuses as-designed and as-built digital representations of built environment with as-is data, typically in the form of floorplans, point clouds and BIMs, with additional information layers pertaining to the current and predicted states of an indoor environment or a complete building (e.g., sensor data). The design, implementation and initial testing of prototypical DT software services for indoor environments is presented and described. These DT software services are implemented within a service-oriented paradigm, and their feasibility is presented through functioning and tested key software components within prototypical Service-Oriented System (SOS) implementations. The main outcome of this research shows that key data related to the built environment can be semantically enriched and combined to enable digital representations of indoor environments, based on the concept of a DT. Furthermore, the outcomes of this research show that digital data, related to FM and Architecture, Construction, Engineering, Owner and Occupant (AECOO) activity, can be combined, analyzed and visualized in real-time using a service-oriented approach. This has great potential to benefit decision making related to Operation and Maintenance (O&M) procedures within the scope of the post-construction life cycle stages of typical office buildings. N2 - Eine der wichtigsten Herausforderungen im modernen Facility Management (FM) besteht darin, den aktuellen Zustand der gebauten Umgebung digital wiederzugeben und die tatsächliche mit der geplanten Gebäudedarstellung zu vergleichen. Während die Verwendung von Building Information Modeling (BIM) das Problem der digitalen Darstellung lösen kann, erfordert die Generierung und Pflege von BIM-Daten einen erheblichen manuellen Aufwand und Fachkenntnisse. Eine weitere wichtige Herausforderung besteht darin, den aktuellen Zustand der gebauten Umgebung zu überwachen, um Feedback zu geben und die Entscheidungsfindung zu verbessern. Die Notwendigkeit einer integrierten Lösung für alle Daten im Zusammenhang mit dem Betriebslebenszyklus eines Gebäudes wird immer deutlicher, da derzeit Praktiken aus Industrie 4.0 evaluiert und für die FM-Nutzung übernommen werden. Diese Studie präsentiert einen Ansatz zur digitalen Darstellung von Innenräumen in ihrem aktuellen Zustand innerhalb des Lebenszyklus eines bestimmten Gebäudes. Ein solcher Ansatz erfordert die Fusion verschiedener Quellen digitaler Daten. Der Schlüssel zur Lösung eines solch komplexen Problems der Integration, Verarbeitung und Darstellung digitaler Daten liegt in der Verwendung eines Digital Twin (DT). Ein DT ist ein digitales Duplikat der physischen Umgebung, Zustände und Prozesse. Ein DT verschmilzt die entworfenen und gebauten digitalen Darstellungen der gebauten Umwelt mit aktuellen Repräsentationsdaten, typischerweise in Form von Grundrissen, Punktwolken und BIMs, mit zusätzlichen Informationsebenen, die sich auf die aktuellen und vorhergesagten Zustände einer Innenumgebung oder eines kompletten Gebäudes beziehen (z.B. Sensordaten). Das Design, die Implementierung und die ersten Tests prototypischen DT-Software-Dienstleistungen für Innenräume werden vorgestellt und beschrieben. Die DT-Software-Dienstleistungen werden innerhalb eines serviceorientierten Paradigmas implementiert, und ihre Machbarkeit wird durch funktionierende und getestete wichtige Softwarekomponenten in prototypischen SOS-Implementierungen dargestellt. Das Hauptergebnis dieser Forschung zeigt, dass Schlüsseldaten in Bezug auf die gebaute Umgebung semantisch angereichert und kombiniert werden können, um digitale Darstellungen von Innenumgebungen basierend auf dem Konzept eines DT zu ermöglichen. Darüber hinaus zeigen die Ergebnisse dieser Forschung, dass digitale Daten in Bezug auf FM und Architektur, Bauwesen, Ingenieurwesen, Eigentümer- und Insassenaktivitäten mithilfe eines serviceorientierten Ansatzes in Echtzeit kombiniert, analysiert und visualisiert werden können. Dies hat ein großes Potenzial für die Entscheidungsfindung in Bezug auf Betriebsund Wartungsverfahren im Rahmen der Lebenszyklusphasen typischer Bürogebäude nach dem Bau. KW - Digital Twin KW - BIM KW - Point Clouds KW - Service-Oriented Systems KW - 3D Visualization KW - Data Analytics KW - Machine Learning KW - Deep Learning KW - Semantic Enrichment KW - Indoor Point Clouds KW - Real Estate 4.0 KW - Facility Management KW - Building Management KW - Sensor Analytics KW - Visualization KW - 3D-Visualisierung KW - Gebäudeinformationsmodellierung KW - Gebäudemanagement KW - Daten-Analytik KW - Tiefes Lernen KW - Digitaler Zwilling KW - Indoor-Punktwolken KW - Maschinelles Lernen KW - Punktwolken KW - Immobilien 4.0 KW - Semantische Anreicherung KW - Sensor-Analytik KW - Service-Orientierte Systeme KW - Visualisierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-509134 ER - TY - THES A1 - Richter, Rico T1 - Concepts and techniques for processing and rendering of massive 3D point clouds T1 - Konzepte und Techniken für die Verarbeitung und das Rendering von Massiven 3D-Punktwolken N2 - Remote sensing technology, such as airborne, mobile, or terrestrial laser scanning, and photogrammetric techniques, are fundamental approaches for efficient, automatic creation of digital representations of spatial environments. For example, they allow us to generate 3D point clouds of landscapes, cities, infrastructure networks, and sites. As essential and universal category of geodata, 3D point clouds are used and processed by a growing number of applications, services, and systems such as in the domains of urban planning, landscape architecture, environmental monitoring, disaster management, virtual geographic environments as well as for spatial analysis and simulation. While the acquisition processes for 3D point clouds become more and more reliable and widely-used, applications and systems are faced with more and more 3D point cloud data. In addition, 3D point clouds, by their very nature, are raw data, i.e., they do not contain any structural or semantics information. Many processing strategies common to GIS such as deriving polygon-based 3D models generally do not scale for billions of points. GIS typically reduce data density and precision of 3D point clouds to cope with the sheer amount of data, but that results in a significant loss of valuable information at the same time. This thesis proposes concepts and techniques designed to efficiently store and process massive 3D point clouds. To this end, object-class segmentation approaches are presented to attribute semantics to 3D point clouds, used, for example, to identify building, vegetation, and ground structures and, thus, to enable processing, analyzing, and visualizing 3D point clouds in a more effective and efficient way. Similarly, change detection and updating strategies for 3D point clouds are introduced that allow for reducing storage requirements and incrementally updating 3D point cloud databases. In addition, this thesis presents out-of-core, real-time rendering techniques used to interactively explore 3D point clouds and related analysis results. All techniques have been implemented based on specialized spatial data structures, out-of-core algorithms, and GPU-based processing schemas to cope with massive 3D point clouds having billions of points. All proposed techniques have been evaluated and demonstrated their applicability to the field of geospatial applications and systems, in particular for tasks such as classification, processing, and visualization. Case studies for 3D point clouds of entire cities with up to 80 billion points show that the presented approaches open up new ways to manage and apply large-scale, dense, and time-variant 3D point clouds as required by a rapidly growing number of applications and systems. N2 - Fernerkundungstechnologien wie luftgestütztes, mobiles oder terrestrisches Laserscanning und photogrammetrische Techniken sind grundlegende Ansätze für die effiziente, automatische Erstellung von digitalen Repräsentationen räumlicher Umgebungen. Sie ermöglichen uns zum Beispiel die Erzeugung von 3D-Punktwolken für Landschaften, Städte, Infrastrukturnetze und Standorte. 3D-Punktwolken werden als wesentliche und universelle Kategorie von Geodaten von einer wachsenden Anzahl an Anwendungen, Diensten und Systemen genutzt und verarbeitet, zum Beispiel in den Bereichen Stadtplanung, Landschaftsarchitektur, Umweltüberwachung, Katastrophenmanagement, virtuelle geographische Umgebungen sowie zur räumlichen Analyse und Simulation. Da die Erfassungsprozesse für 3D-Punktwolken immer zuverlässiger und verbreiteter werden, sehen sich Anwendungen und Systeme mit immer größeren 3D-Punktwolken-Daten konfrontiert. Darüber hinaus enthalten 3D-Punktwolken als Rohdaten von ihrer Art her keine strukturellen oder semantischen Informationen. Viele GIS-übliche Verarbeitungsstrategien, wie die Ableitung polygonaler 3D-Modelle, skalieren in der Regel nicht für Milliarden von Punkten. GIS reduzieren typischerweise die Datendichte und Genauigkeit von 3D-Punktwolken, um mit der immensen Datenmenge umgehen zu können, was aber zugleich zu einem signifikanten Verlust wertvoller Informationen führt. Diese Arbeit präsentiert Konzepte und Techniken, die entwickelt wurden, um massive 3D-Punktwolken effizient zu speichern und zu verarbeiten. Hierzu werden Ansätze für die Objektklassen-Segmentierung vorgestellt, um 3D-Punktwolken mit Semantik anzureichern; so lassen sich beispielsweise Gebäude-, Vegetations- und Bodenstrukturen identifizieren, wodurch die Verarbeitung, Analyse und Visualisierung von 3D-Punktwolken effektiver und effizienter durchführbar werden. Ebenso werden Änderungserkennungs- und Aktualisierungsstrategien für 3D-Punktwolken vorgestellt, mit denen Speicheranforderungen reduziert und Datenbanken für 3D-Punktwolken inkrementell aktualisiert werden können. Des Weiteren beschreibt diese Arbeit Out-of-Core Echtzeit-Rendering-Techniken zur interaktiven Exploration von 3D-Punktwolken und zugehöriger Analyseergebnisse. Alle Techniken wurden mit Hilfe spezialisierter räumlicher Datenstrukturen, Out-of-Core-Algorithmen und GPU-basierter Verarbeitungs-schemata implementiert, um massiven 3D-Punktwolken mit Milliarden von Punkten gerecht werden zu können. Alle vorgestellten Techniken wurden evaluiert und die Anwendbarkeit für Anwendungen und Systeme, die mit raumbezogenen Daten arbeiten, wurde insbesondere für Aufgaben wie Klassifizierung, Verarbeitung und Visualisierung demonstriert. Fallstudien für 3D-Punktwolken von ganzen Städten mit bis zu 80 Milliarden Punkten zeigen, dass die vorgestellten Ansätze neue Wege zur Verwaltung und Verwendung von großflächigen, dichten und zeitvarianten 3D-Punktwolken eröffnen, die von einer wachsenden Anzahl an Anwendungen und Systemen benötigt werden. KW - 3D point clouds KW - 3D-Punktwolken KW - real-time rendering KW - Echtzeit-Rendering KW - 3D visualization KW - 3D-Visualisierung KW - classification KW - Klassifizierung KW - change detection KW - Veränderungsanalyse KW - LiDAR KW - LiDAR KW - remote sensing KW - Fernerkundung KW - mobile mapping KW - Mobile-Mapping KW - Big Data KW - Big Data KW - GPU KW - GPU KW - laserscanning KW - Laserscanning Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423304 ER - TY - THES A1 - Jamil, Abdlhamed T1 - Fernerkundung und GIS zur Erfassung, Modellierung und Visualisierung orientalischer Stadtstrukturen : das Beispiel Sanaa (Jemen) T1 - Acquisition, modelling and visualisation of oriental city structures with remote sensing and GIS : the case of Sanaa (Yemen) N2 - Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockengürtel mittels hochauflösender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden können. Daten von hochauflösenden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Gebäude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen können zur Erfassung von Urbanisierungsprozessen (Stadt- und Bevölkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung für touristische Anwendungen, für die Stadtplanung, für Lärmanalysen oder für die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Gebäudedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Gebäude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Geländedaten, ergänzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und für jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgeführt wurde. Zusätzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Flächen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schwächen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Geländemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Gebäude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort für die Klassifikation herrschenden ungünstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den höchsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse gehörende Fläche besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit kürzer und die Speicherkapazität geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-geführten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Gebäude möglich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enthält. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer räumlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu zählen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die für Sanaa typischen Hochhäuser werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere städtische Räume des Typus orientalische Stadt angewendet werden kann. N2 - This study aims at the development and implementation of a generic procedure for the acquisition, processing, analysis and cartographic visualisation of urban space in arid zone cities based on operational remote sensing imagery. As a proof of concept the Yemeni capital Sanaa has been selected as a use case. The workflow developed is based on standard procedures and systems of spatial information processing and allows for subsequent automation oft its essential processes. Today, high-resolution remote sensing data from operational satellite systems (such as QuickBird, Ikonos etc) facilitate the recognition and mapping of urban objects such as buildings, streets and even cars which, in the past could only be acquired by non-operational aerial photography. The satellite imagery can be used to generate maps and even 3D-representation of the urban space. Both maps and 3D-visualisations can be used for up-to-date land use mapping, zoning and urban planning purposes etc. The 3D-visualisation provides a deeper understanding of urban structures by integrating building height into the analysis. For this study remote sensing data of the Quickbird satellite data of 2005 were used. They show a section of the city of Sanaa in Yemen. The remote sensing data were supplemented and verified by other data, including terrain data. The image data are then subjected to thorough digital image. This procedure consists of a pixel-oriented classification of the satellite image acquisition at class level. In addition, a visual interpretation of the satellite image has been undertaken to identify and label individual objects (areas, surfaces, streets) etc. which were subsequently digitised. The town maps created in both procedures were merged to one. Through this combination of the results, the advantages of both maps are brought together and their respective weaknesses are eliminated or minimized. The digital collection of the contour lines on the orthophoto map of Sanaa allowed for the creation of a digital terrain model, which was used for the three-dimensional representation of Sanaa's historic district. The 3D-visualisation was created from the classification results as well as from the digital collection of the objects and the results of both visualisations were combined in a city map. In all classification procedures, paved roads, vegetation and single buildings were detected very well. The best overall results with the highest accuracy values achieved in the pixel-oriented classification at class level. Because each class has been classified separately, size belonging to that class can be better understood and optimised. The amount of data could be reduced, thus requiring less memory and resulting in a shorter processing time. The evaluation and validation of the pixel-oriented visual classification results at class level with the original satellite imagery was designed more simply and more accurately than other classification methods implemented. It was also possible by the separate recording of the class building to create a 3D-visualisation. A comparison of the maps created found that the map created from visual interpretation contains more information. The map based on pixel-oriented classification results at class level proved to be less labor- and time-consuming, and the structure of an oriental city with the main features will be worked out better. The 2D-maps and the 3D-visualisation provide a different spatial impression, and certain elements of an oriental city clearly detectable. These include the characteristic dead ends in the old town and the former city wall. The typical high-rise houses of Sanaa are detected in the 3D-visualisation. This work developed a generic procedure to detect, analyse and visualise urban structures in arid zone environments. The city of Sanaa served as a proof of concept. The results show that the workflow developed is instrumental in detecting typical structures of oriental cities. The results achieved in the case study Sanaa prove that the process can be adapted to the investigation of other arid zone cities in the Middle East with minor modifications. KW - Fernerkundung KW - 3D-Visualisierung KW - Klassifikation KW - 2D-Stadtmodell KW - orientalische Stadt KW - remote sensing KW - 3D visualization KW - classification KW - 2D city model KW - oriental city Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50200 ER -