TY - THES A1 - Rogge-Solti, Andreas T1 - Probabilistic Estimation of Unobserved Process Events T1 - Probabilistische Abschätzung Unbeobachteter Prozessereignisse N2 - Organizations try to gain competitive advantages, and to increase customer satisfaction. To ensure the quality and efficiency of their business processes, they perform business process management. An important part of process management that happens on the daily operational level is process controlling. A prerequisite of controlling is process monitoring, i.e., keeping track of the performed activities in running process instances. Only by process monitoring can business analysts detect delays and react to deviations from the expected or guaranteed performance of a process instance. To enable monitoring, process events need to be collected from the process environment. When a business process is orchestrated by a process execution engine, monitoring is available for all orchestrated process activities. Many business processes, however, do not lend themselves to automatic orchestration, e.g., because of required freedom of action. This situation is often encountered in hospitals, where most business processes are manually enacted. Hence, in practice it is often inefficient or infeasible to document and monitor every process activity. Additionally, manual process execution and documentation is prone to errors, e.g., documentation of activities can be forgotten. Thus, organizations face the challenge of process events that occur, but are not observed by the monitoring environment. These unobserved process events can serve as basis for operational process decisions, even without exact knowledge of when they happened or when they will happen. An exemplary decision is whether to invest more resources to manage timely completion of a case, anticipating that the process end event will occur too late. This thesis offers means to reason about unobserved process events in a probabilistic way. We address decisive questions of process managers (e.g., "when will the case be finished?", or "when did we perform the activity that we forgot to document?") in this thesis. As main contribution, we introduce an advanced probabilistic model to business process management that is based on a stochastic variant of Petri nets. We present a holistic approach to use the model effectively along the business process lifecycle. Therefore, we provide techniques to discover such models from historical observations, to predict the termination time of processes, and to ensure quality by missing data management. We propose mechanisms to optimize configuration for monitoring and prediction, i.e., to offer guidance in selecting important activities to monitor. An implementation is provided as a proof of concept. For evaluation, we compare the accuracy of the approach with that of state-of-the-art approaches using real process data of a hospital. Additionally, we show its more general applicability in other domains by applying the approach on process data from logistics and finance. N2 - Unternehmen versuchen Wettbewerbsvorteile zu gewinnen und die Kundenzufriedenheit zu erhöhen. Um die Qualität und die Effizienz ihrer Prozesse zu gewährleisten, wenden Unternehmen Geschäftsprozessmanagement an. Hierbei spielt die Prozesskontrolle im täglichen Betrieb eine wichtige Rolle. Prozesskontrolle wird durch Prozessmonitoring ermöglicht, d.h. durch die Überwachung des Prozessfortschritts laufender Prozessinstanzen. So können Verzögerungen entdeckt und es kann entsprechend reagiert werden, um Prozesse wie erwartet und termingerecht beenden zu können. Um Prozessmonitoring zu ermöglichen, müssen prozessrelevante Ereignisse aus der Prozessumgebung gesammelt und ausgewertet werden. Sofern eine Prozessausführungsengine die Orchestrierung von Geschäftsprozessen übernimmt, kann jede Prozessaktivität überwacht werden. Aber viele Geschäftsprozesse eignen sich nicht für automatisierte Orchestrierung, da sie z.B. besonders viel Handlungsfreiheit erfordern. Dies ist in Krankenhäusern der Fall, in denen Geschäftsprozesse oft manuell durchgeführt werden. Daher ist es meist umständlich oder unmöglich, jeden Prozessfortschritt zu erfassen. Zudem ist händische Prozessausführung und -dokumentation fehleranfällig, so wird z.B. manchmal vergessen zu dokumentieren. Eine Herausforderung für Unternehmen ist, dass manche Prozessereignisse nicht im Prozessmonitoring erfasst werden. Solch unbeobachtete Prozessereignisse können jedoch als Entscheidungsgrundlage dienen, selbst wenn kein exaktes Wissen über den Zeitpunkt ihres Auftretens vorliegt. Zum Beispiel ist bei der Prozesskontrolle zu entscheiden, ob zusätzliche Ressourcen eingesetzt werden sollen, wenn eine Verspätung angenommen wird. Diese Arbeit stellt einen probabilistischen Ansatz für den Umgang mit unbeobachteten Prozessereignissen vor. Dabei werden entscheidende Fragen von Prozessmanagern beantwortet (z.B. "Wann werden wir den Fall beenden?", oder "Wann wurde die Aktivität ausgeführt, die nicht dokumentiert wurde?"). Der Hauptbeitrag der Arbeit ist die Einführung eines erweiterten probabilistischen Modells ins Geschäftsprozessmanagement, das auf stochastischen Petri Netzen basiert. Dabei wird ein ganzheitlicher Ansatz zur Unterstützung der einzelnen Phasen des Geschäftsprozesslebenszyklus verfolgt. Es werden Techniken zum Lernen des probabilistischen Modells, zum Vorhersagen des Zeitpunkts des Prozessendes, zum Qualitätsmanagement von Dokumentationen durch Erkennung fehlender Einträge, und zur Optimierung von Monitoringkonfigurationen bereitgestellt. Letztere dient zur Auswahl von relevanten Stellen im Prozess, die beobachtet werden sollten. Diese Techniken wurden in einer quelloffenen prototypischen Anwendung implementiert. Zur Evaluierung wird der Ansatz mit existierenden Alternativen an echten Prozessdaten eines Krankenhauses gemessen. Die generelle Anwendbarkeit in weiteren Domänen wird examplarisch an Prozessdaten aus der Logistik und dem Finanzwesen gezeigt. KW - Geschäftsprozessmanagement KW - stochastische Petri Netze KW - Bayessche Netze KW - Probabilistische Modelle KW - Vorhersage KW - Fehlende Daten KW - Process Mining KW - business process management KW - stochastic Petri nets KW - Bayesian networks KW - probabilistic models KW - prediction KW - missing data KW - process mining Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70426 ER - TY - THES A1 - Ahmad, Nadeem T1 - People centered HMI’s for deaf and functionally illiterate users T1 - Menschen zentrierte Mensch-Maschine-Schnittstellen für Schwerhörige und ungeschulte Anwender N2 - The objective and motivation behind this research is to provide applications with easy-to-use interfaces to communities of deaf and functionally illiterate users, which enables them to work without any human assistance. Although recent years have witnessed technological advancements, the availability of technology does not ensure accessibility to information and communication technologies (ICT). Extensive use of text from menus to document contents means that deaf or functionally illiterate can not access services implemented on most computer software. Consequently, most existing computer applications pose an accessibility barrier to those who are unable to read fluently. Online technologies intended for such groups should be developed in continuous partnership with primary users and include a thorough investigation into their limitations, requirements and usability barriers. In this research, I investigated existing tools in voice, web and other multimedia technologies to identify learning gaps and explored ways to enhance the information literacy for deaf and functionally illiterate users. I worked on the development of user-centered interfaces to increase the capabilities of deaf and low literacy users by enhancing lexical resources and by evaluating several multimedia interfaces for them. The interface of the platform-independent Italian Sign Language (LIS) Dictionary has been developed to enhance the lexical resources for deaf users. The Sign Language Dictionary accepts Italian lemmas as input and provides their representation in the Italian Sign Language as output. The Sign Language dictionary has 3082 signs as set of Avatar animations in which each sign is linked to a corresponding Italian lemma. I integrated the LIS lexical resources with MultiWordNet (MWN) database to form the first LIS MultiWordNet(LMWN). LMWN contains information about lexical relations between words, semantic relations between lexical concepts (synsets), correspondences between Italian and sign language lexical concepts and semantic fields (domains). The approach enhances the deaf users’ understanding of written Italian language and shows that a relatively small set of lexicon can cover a significant portion of MWN. Integration of LIS signs with MWN made it useful tool for computational linguistics and natural language processing. The rule-based translation process from written Italian text to LIS has been transformed into service-oriented system. The translation process is composed of various modules including parser, semantic interpreter, generator, and spatial allocation planner. This translation procedure has been implemented in the Java Application Building Center (jABC), which is a framework for extreme model driven design (XMDD). The XMDD approach focuses on bringing software development closer to conceptual design, so that the functionality of a software solution could be understood by someone who is unfamiliar with programming concepts. The transformation addresses the heterogeneity challenge and enhances the re-usability of the system. For enhancing the e-participation of functionally illiterate users, two detailed studies were conducted in the Republic of Rwanda. In the first study, the traditional (textual) interface was compared with the virtual character-based interactive interface. The study helped to identify usability barriers and users evaluated these interfaces according to three fundamental areas of usability, i.e. effectiveness, efficiency and satisfaction. In another study, we developed four different interfaces to analyze the usability and effects of online assistance (consistent help) for functionally illiterate users and compared different help modes including textual, vocal and virtual character on the performance of semi-literate users. In our newly designed interfaces the instructions were automatically translated in Swahili language. All the interfaces were evaluated on the basis of task accomplishment, time consumption, System Usability Scale (SUS) rating and number of times the help was acquired. The results show that the performance of semi-literate users improved significantly when using the online assistance. The dissertation thus introduces a new development approach in which virtual characters are used as additional support for barely literate or naturally challenged users. Such components enhanced the application utility by offering a variety of services like translating contents in local language, providing additional vocal information, and performing automatic translation from text to sign language. Obviously, there is no such thing as one design solution that fits for all in the underlying domain. Context sensitivity, literacy and mental abilities are key factors on which I concentrated and the results emphasize that computer interfaces must be based on a thoughtful definition of target groups, purposes and objectives. N2 - Das Ziel und die Motivation hinter dieser Forschungsarbeit ist es, Anwendungen mit benutzerfreundlichen Schnittstellen für Gehörlose und Analphabeten bereitzustellen, welche es ihnen ermöglichen ohne jede menschliche Unterstützung zu arbeiten. Obwohl es in den letzten Jahren technologische Fortschritte gab, garantiert allein die Verfügbarkeit von Technik nicht automatisch die Zugänglichkeit zu Informations- und Kommunikationstechnologien (IKT). Umfangreiche Verwendung von Texten in Menüs bis hin zu Dokumenten führen dazu, dass Gehörlose und funktionale Analphabeten auf diese Dienste, die auf Computersystemen existieren, nicht zugreifen können. Folglich stellen die meisten bestehenden EDV-Anwendungen für diejenigen eine Hürde dar, die nicht fließend lesen können. Onlinetechnologien für solche Art von Gruppen sollten in kontinuierlichem Austausch mit den Hauptnutzern entwickelt werden und gründliche Untersuchung ihrer Einschränkungen, Anforderungen und Nutzungsbarrieren beinhalten. In dieser Forschungsarbeit untersuche ich vorhandene Tools im Bereich von Sprach-, Web- und anderen Multimedia-Technologien, um Lernlücken zu identifizieren und Wege zu erforschen, welche die Informationsalphabetisierung für Gehörlose und Analphabeten erweitert. Ich arbeitete an der Entwicklung einer nutzerzentrierten Schnittstelle, um die Fähigkeiten von Gehörlosen und Nutzern mit schlechter Alphabetisierung durch Verbesserung der lexikalischen Ressourcen und durch Auswertung mehrerer Multimediaschnittstellen zu erhöhen. Die Schnittstelle des plattformunabhängigen, italienischen Gebärdensprachen (LIS) Wörterbuches wurde entwickelt, um die lexikalischen Quellen für gehörlose Anwender zu verbessern. Ich integriere die LIS-lexikalischen Ressourcen mit der MultiWordNet (MWN)-Datenbank, um das erste LIS MultiWordNet (LMWN) zu bilden. LMWN enthält Informationen über lexikalische Beziehungen zwischen Wörtern, semantische Beziehungen zwischen lexikalischen Konzepten (Synsets), Gemeinsamkeiten zwischen italienischer und Gebärdensprache-lexikalischen Konzepten und semantischen Feldern (Domänen). Der Ansatz erhöht das Verständnis der tauben Nutzer geschriebene, italienischen Sprache zu verstehen und zeigt, dass ein relativ kleiner Satz an Lexika den wesentlichen Teil der MWN abdecken kann. Die Integration von LIS-Zeichen mit MWN machte es zu einem nützlichen Werkzeug für Linguistik und Sprachverarbeitung. Der regelbasierte Übersetzungsprozess von geschriebenem, italienischem Text zu LIS wurde in ein Service-orientiertes System überführt. Der Übersetzungsprozess besteht aus verschiedenen Modulen, einschließlich einem Parser, einem semantischen Interpreter, einem Generator und einem räumlichen Zuordnungs-Planer. Diese Übersetzungsprozedur wurde im Java Application Building Center (jABC) implementiert, welches ein Framework für das eXtrem Model Driven Design (XMDD) ist. Der XMDD-Ansatz konzentriert sich darauf die Softwareentwicklung näher zum konzeptionellen Design zu bringen, sodass die Funktionalität einer Softwarelösung von jemandem verstanden werden kann, der mit Programmierkonzepten unvertraut ist. Die Transformation richtet sich an die heterogene Herausforderung und verbessert die Wiederverwendbarkeit des Systems. Zur Verbesserung der E-Partizipation der funktionalen Analphabeten wurden zwei detaillierte Studien in der Republik Ruanda durchgeführt. In der ersten Studie wurde die traditionelle, textuelle Schnittstelle mit der virtuellen, charakterbasierten, interaktiven Schnittstelle verglichen. Diese Studie hat dazu beigetragen Barrieren der Benutzerfreundlichkeit zu identifizieren. Anwender evaluierten die Schnittstellen bezüglich drei grundlegender Bereiche der Benutzerfreundlichkeit: Effektivität, Effizienz und Zufriedenstellung bei der Problemlösung. In einer anderen Studie entwickelten wir vier verschiedene Schnittstellen, um die Benutzerfreundlichkeit und die Effekte der Online-Hilfe (konsequente Hilfe) für funktionale Analphabeten zu analysieren und verglichen verschiedene Hilfsmodi (einschließlich zusätzlicher Textinformationen, Audio-Unterstützung und mit Hilfe eines virtuellen Charakters) bezüglich der Verbesserung der Leistungsfähigkeit von teilweisen Analphabeten, um ihre Zielstellung zu erreichen. In unseren neu gestalteten Schnittstellen wurden Anweisungen automatisch in die Swahili Sprache übersetzt. Alle Schnittstellen wurden auf der Grundlage der Aufgabenbewältigung, des Zeitaufwands, der System Usability Scale (SUS) Rate und der Anzahl der Hilfegesuche bewertet. Die Ergebnisse zeigen, dass die Leistungsfähigkeit der teilweisen Analphabeten bei Nutzung der Online-Hilfe signifikant verbessert wurde. Diese Dissertation stellt somit einen neuen Entwicklungsansatz dar, bei welchem virtuelle Charaktere als zusätzliche Unterstützung genutzt werden, um Nutzer, die kaum lesen können oder sonstig eingeschränkt sind, zu unterstützen. Solche Komponenten erweitern die Anwendungsnutzbarkeit indem sie eine Vielzahl von Diensten wie das Übersetzen von Inhalten in eine Landessprache, das Bereitstellen von zusätzlichen akustisch, gesprochenen Informationen und die Durchführung einer automatischen Übersetzung von Text in Gebärdensprache bereitstellen. Offensichtlich gibt ist keine One Design-Lösung, die für alle zugrundeliegenden Domänen passt. Kontextsensitivität, Alphabetisierung und geistigen Fähigkeiten sind Schlüsselfaktoren, auf welche ich mich konzentriere. Die Ergebnisse unterstreichen, dass Computerschnittstellen auf einer exakten Definition der Zielgruppen, dem Zweck und den Zielen basieren müssen. KW - Mensch-Computer-Interaktion KW - assistive Technologien KW - HCI KW - user interfaces KW - sign language KW - online assistance KW - assistive technologies Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70391 ER - TY - BOOK ED - Lambrecht, Anna-Lena ED - Margaria, Tizian T1 - Process design for natural scientists BT - an agile model-driven approach T3 - Communications in computer and information science ; 500 N2 - This book presents an agile and model-driven approach to manage scientific workflows. The approach is based on the Extreme Model Driven Design (XMDD) paradigm and aims at simplifying and automating the complex data analysis processes carried out by scientists in their day-to-day work. Besides documenting the impact the workflow modeling might have on the work of natural scientists, this book serves three major purposes: 1. It acts as a primer for practitioners who are interested to learn how to think in terms of services and workflows when facing domain-specific scientific processes. 2. It provides interesting material for readers already familiar with this kind of tools, because it introduces systematically both the technologies used in each case study and the basic concepts behind them. 3. As the addressed thematic field becomes increasingly relevant for lectures in both computer science and experimental sciences, it also provides helpful material for teachers that plan similar courses. Y1 - 2014 SN - 978-3-662-45005-5 PB - Springer CY - Wiesbaden ER - TY - JOUR A1 - Teske, Daniel T1 - Geocoder accuracy ranking JF - Process design for natural scientists: an agile model-driven approach N2 - Finding an address on a map is sometimes tricky: the chosen map application may be unfamiliar with the enclosed region. There are several geocoders on the market, they have different databases and algorithms to compute the query. Consequently, the geocoding results differ in their quality. Fortunately the geocoders provide a rich set of metadata. The workflow described in this paper compares this metadata with the aim to find out which geocoder is offering the best-fitting coordinate for a given address. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 161 EP - 174 PB - Springer CY - Berlin ER - TY - JOUR A1 - Sens, Henriette T1 - Web-Based map generalization tools put to the test: a jABC workflow JF - Process Design for Natural Scientists: an agile model-driven approach N2 - Geometric generalization is a fundamental concept in the digital mapping process. An increasing amount of spatial data is provided on the web as well as a range of tools to process it. This jABC workflow is used for the automatic testing of web-based generalization services like mapshaper.org by executing its functionality, overlaying both datasets before and after the transformation and displaying them visually in a .tif file. Mostly Web Services and command line tools are used to build an environment where ESRI shapefiles can be uploaded, processed through a chosen generalization service and finally visualized in Irfanview. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 175 EP - 185 PB - Springer CY - Berlin ER - TY - JOUR A1 - Noack, Franziska T1 - CREADED: Colored-Relief application for digital elevation data JF - Process design for natural scientists: an agile model-driven approach N2 - In the geoinformatics field, remote sensing data is often used for analyzing the characteristics of the current investigation area. This includes DEMs, which are simple raster grids containing grey scales representing the respective elevation values. The project CREADED that is presented in this paper aims at making these monochrome raster images more significant and more intuitively interpretable. For this purpose, an executable interactive model for creating a colored and relief-shaded Digital Elevation Model (DEM) has been designed using the jABC framework. The process is based on standard jABC-SIBs and SIBs that provide specific GIS functions, which are available as Web services, command line tools and scripts. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 186 EP - 199 PB - Springer CY - Berlin ER - TY - JOUR A1 - Respondek, Tobias T1 - A workflow for computing potential areas for wind turbines JF - Process design for natural scientists: an agile model-driven approach N2 - This paper describes the implementation of a workflow model for service-oriented computing of potential areas for wind turbines in jABC. By implementing a re-executable model the manual effort of a multi-criteria site analysis can be reduced. The aim is to determine the shift of typical geoprocessing tools of geographic information systems (GIS) from the desktop to the web. The analysis is based on a vector data set and mainly uses web services of the “Center for Spatial Information Science and Systems” (CSISS). This paper discusses effort, benefits and problems associated with the use of the web services. Y1 - 2014 SN - 978-3-662-45005-5 IS - 500 SP - 200 EP - 215 PB - Springer CY - Berlin ER - TY - JOUR A1 - Scheele, Lasse T1 - Location analysis for placing artificial reefs JF - Process design for natural scientists: an agile model-driven approach N2 - Location analyses are among the most common tasks while working with spatial data and geographic information systems. Automating the most frequently used procedures is therefore an important aspect of improving their usability. In this context, this project aims to design and implement a workflow, providing some basic tools for a location analysis. For the implementation with jABC, the workflow was applied to the problem of finding a suitable location for placing an artificial reef. For this analysis three parameters (bathymetry, slope and grain size of the ground material) were taken into account, processed, and visualized with the The Generic Mapping Tools (GMT), which were integrated into the workflow as jETI-SIBs. The implemented workflow thereby showed that the approach to combine jABC with GMT resulted in an user-centric yet user-friendly tool with high-quality cartographic outputs. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 216 EP - 228 PB - Springer CY - Berlin ER - TY - JOUR A1 - Kind, Josephine T1 - Creation of topographic maps JF - Process design for natural scientists: an agile model-driven approach N2 - Location analyses are among the most common tasks while working with spatial data and geographic information systems. Automating the most frequently used procedures is therefore an important aspect of improving their usability. In this context, this project aims to design and implement a workflow, providing some basic tools for a location analysis. For the implementation with jABC, the workflow was applied to the problem of finding a suitable location for placing an artificial reef. For this analysis three parameters (bathymetry, slope and grain size of the ground material) were taken into account, processed, and visualized with the The Generic Mapping Tools (GMT), which were integrated into the workflow as jETI-SIBs. The implemented workflow thereby showed that the approach to combine jABC with GMT resulted in an user-centric yet user-friendly tool with high-quality cartographic outputs. Y1 - 2014 SN - 978-3-662-45005-5 IS - 500 SP - 229 EP - 238 PB - Springer CY - Berlin ER - TY - JOUR A1 - Holler, Robin T1 - GraffDok - a graffiti documentation application JF - Process design for natural scientists: an agile model-driven approach N2 - GraffDok is an application helping to maintain an overview over sprayed images somewhere in a city. At the time of writing it aims at vandalism rather than at beautiful photographic graffiti in an underpass. Looking at hundreds of tags and scribbles on monuments, house walls, etc. it would be interesting to not only record them in writing but even make them accessible electronically, including images. GraffDok’s workflow is simple and only requires an EXIF-GPS-tagged photograph of a graffito. It automatically determines its location by using reverse geocoding with the given GPS-coordinates and the Gisgraphy WebService. While asking the user for some more meta data, GraffDok analyses the image in parallel with this and tries to detect fore- and background – before extracting the drawing lines and make them stand alone. The command line based tool ImageMagick is used here as well as for accessing EXIF data. Any meta data is written to csv-files, which will stay easily accessible and can be integrated in TeX-files as well. The latter ones are converted to PDF at the end of the workflow, containing a table about all graffiti and a summary for each – including the generated characteristic graffiti pattern image. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 239 EP - 251 PB - Springer CY - Berlin ER - TY - JOUR A1 - Reso, Judith ED - Lambrecht, Anna-Lena ED - Margaria, Tiziana T1 - Protein Classification Workflow JF - Process Design for Natural Scientists: an agile model-driven approach N2 - The protein classification workflow described in this report enables users to get information about a novel protein sequence automatically. The information is derived by different bioinformatic analysis tools which calculate or predict features of a protein sequence. Also, databases are used to compare the novel sequence with known proteins. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 65 EP - 72 PB - Springer Verlag CY - Berlin ER - TY - JOUR A1 - Schulze, Gunnar T1 - Workflow for rapid metagenome analysis JF - Process design for natural scientists: an agile model-driven approach N2 - Analyses of metagenomes in life sciences present new opportunities as well as challenges to the scientific community and call for advanced computational methods and workflows. The large amount of data collected from samples via next-generation sequencing (NGS) technologies render manual approaches to sequence comparison and annotation unsuitable. Rather, fast and efficient computational pipelines are needed to provide comprehensive statistics and summaries and enable the researcher to choose appropriate tools for more specific analyses. The workflow presented here builds upon previous pipelines designed for automated clustering and annotation of raw sequence reads obtained from next-generation sequencing technologies such as 454 and Illumina. Employing specialized algorithms, the sequence reads are processed at three different levels. First, raw reads are clustered at high similarity cutoff to yield clusters which can be exported as multifasta files for further analyses. Independently, open reading frames (ORFs) are predicted from raw reads and clustered at two strictness levels to yield sets of non-redundant sequences and ORF families. Furthermore, single ORFs are annotated by performing searches against the Pfam database Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 88 EP - 100 PB - Springer CY - Berlin ER - TY - JOUR A1 - Vierheller, Janine ED - Lambrecht, Anna-Lena ED - Margaria, Tiziana T1 - Exploratory Data Analysis JF - Process Design for Natural Scientists: an agile model-driven approach N2 - In bioinformatics the term exploratory data analysis refers to different methods to get an overview of large biological data sets. Hence, it helps to create a framework for further analysis and hypothesis testing. The workflow facilitates this first important step of the data analysis created by high-throughput technologies. The results are different plots showing the structure of the measurements. The goal of the workflow is the automatization of the exploratory data analysis, but also the flexibility should be guaranteed. The basic tool is the free software R. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 110 EP - 126 PB - Axel Springer Verlag CY - Berlin ER - TY - JOUR A1 - Schütt, Christine T1 - Identification of differentially expressed genes JF - Process design for natural scientists: an agile model-driven approach N2 - With the jABC it is possible to realize workflows for numerous questions in different fields. The goal of this project was to create a workflow for the identification of differentially expressed genes. This is of special interest in biology, for it gives the opportunity to get a better insight in cellular changes due to exogenous stress, diseases and so on. With the knowledge that can be derived from the differentially expressed genes in diseased tissues, it becomes possible to find new targets for treatment. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 127 EP - 139 PB - Springer CY - Berlin ER - TY - JOUR A1 - Kuntzsch, Christian T1 - Visualization of data transfer paths JF - Process design for natural scientists: an agile model-driven approach N2 - A workflow for visualizing server connections using the Google Maps API was built in the jABC. It makes use of three basic services: An XML-based IP address geolocation web service, a command line tool and the Static Maps API. The result of the workflow is an URL leading to an image file of a map, showing server connections between a client and a target host. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 140 EP - 148 PB - Springer CY - Berlin ER - TY - JOUR A1 - Hibbe, Marcel ED - Lambrecht, Anna-Lena ED - Margaria, Tiziana T1 - Spotlocator - Guess Where the Photo Was Taken! JF - Process Design for Natural Scientists: an agile model-driven approach N2 - Spotlocator is a game wherein people have to guess the spots of where photos were taken. The photos of a defined area for each game are from panoramio.com. They are published at http://spotlocator. drupalgardens.com with an ID. Everyone can guess the photo spots by sending a special tweet via Twitter that contains the hashtag #spotlocator, the guessed coordinates and the ID of the photo. An evaluation is published for all tweets. The players are informed about the distance to the real photo spots and the positions are shown on a map. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 149 EP - 160 PB - Springer Verlag CY - Berlin ER - TY - JOUR A1 - Blaese, Leif T1 - Data mining for unidentified protein squences JF - Process design for natural scientists: an agile model-driven approach N2 - Through the use of next generation sequencing (NGS) technology, a lot of newly sequenced organisms are now available. Annotating those genes is one of the most challenging tasks in sequence biology. Here, we present an automated workflow to find homologue proteins, annotate sequences according to function and create a three-dimensional model. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 73 EP - 87 PB - Springer CY - Berlin ER - TY - JOUR A1 - Lis, Monika ED - Lambrecht, Anna-Lena ED - Margaria, Tiziana T1 - Constructing a Phylogenetic Tree JF - Process Design for Natural Scientists: an agile model-driven approach N2 - In this project I constructed a workflow that takes a DNA sequence as input and provides a phylogenetic tree, consisting of the input sequence and other sequences which were found during a database search. In this phylogenetic tree the sequences are arranged depending on similarities. In bioinformatics, constructing phylogenetic trees is often used to explore the evolutionary relationships of genes or organisms and to understand the mechanisms of evolution itself. Y1 - 2014 SN - 978-3-662-45005-5 SN - 1865-0929 IS - 500 SP - 101 EP - 109 PB - Springer Verlag CY - Berlin ER - TY - THES A1 - Heise, Arvid T1 - Data cleansing and integration operators for a parallel data analytics platform T1 - Datenreinigungs- und Integrationsoperatoren für ein paralles Datenanalyseframework N2 - The data quality of real-world datasets need to be constantly monitored and maintained to allow organizations and individuals to reliably use their data. Especially, data integration projects suffer from poor initial data quality and as a consequence consume more effort and money. Commercial products and research prototypes for data cleansing and integration help users to improve the quality of individual and combined datasets. They can be divided into either standalone systems or database management system (DBMS) extensions. On the one hand, standalone systems do not interact well with DBMS and require time-consuming data imports and exports. On the other hand, DBMS extensions are often limited by the underlying system and do not cover the full set of data cleansing and integration tasks. We overcome both limitations by implementing a concise set of five data cleansing and integration operators on the parallel data analytics platform Stratosphere. We define the semantics of the operators, present their parallel implementation, and devise optimization techniques for individual operators and combinations thereof. Users specify declarative queries in our query language METEOR with our new operators to improve the data quality of individual datasets or integrate them to larger datasets. By integrating the data cleansing operators into the higher level language layer of Stratosphere, users can easily combine cleansing operators with operators from other domains, such as information extraction, to complex data flows. Through a generic description of the operators, the Stratosphere optimizer reorders operators even from different domains to find better query plans. As a case study, we reimplemented a part of the large Open Government Data integration project GovWILD with our new operators and show that our queries run significantly faster than the original GovWILD queries, which rely on relational operators. Evaluation reveals that our operators exhibit good scalability on up to 100 cores, so that even larger inputs can be efficiently processed by scaling out to more machines. Finally, our scripts are considerably shorter than the original GovWILD scripts, which results in better maintainability of the scripts. N2 - Die Datenqualität von Realweltdaten muss ständig überwacht und gewartet werden, damit Organisationen und Individuen ihre Daten verlässlich nutzen können. Besonders Datenintegrationsprojekte leiden unter schlechter Datenqualität in den Quelldaten und benötigen somit mehr Zeit und Geld. Kommerzielle Produkte und Forschungsprototypen helfen Nutzern die Qualität in einzelnen und kombinierten Datensätzen zu verbessern. Die Systeme können in selbständige Systeme und Erweiterungen von bestehenden Datenbankmanagementsystemen (DBMS) unterteilt werden. Auf der einen Seite interagieren selbständige Systeme nicht gut mit DBMS und brauchen zeitaufwändigen Datenimport und -export. Auf der anderen Seite sind die DBMS Erweiterungen häufig durch das unterliegende System limitiert und unterstützen nicht die gesamte Bandbreite an Datenreinigungs- und -integrationsaufgaben. Wir überwinden beide Limitationen, indem wir eine Menge von häufig benötigten Datenreinigungs- und Datenintegrationsoperatoren direkt in der parallelen Datenanalyseplattform Stratosphere implementieren. Wir definieren die Semantik der Operatoren, präsentieren deren parallele Implementierung und entwickeln Optimierungstechniken für die einzelnen und mehrere Operatoren. Nutzer können deklarative Anfragen in unserer Anfragesprache METEOR mit unseren neuen Operatoren formulieren, um die Datenqualität von einzelnen Datensätzen zu erhöhen, oder um sie zu größeren Datensätzen zu integrieren. Durch die Integration der Operatoren in die Hochsprachenschicht von Stratosphere können Nutzer Datenreinigungsoperatoren einfach mit Operatoren aus anderen Domänen wie Informationsextraktion zu komplexen Datenflüssen kombinieren. Da Stratosphere Operatoren durch generische Beschreibungen in den Optimierer integriert werden, ist es für den Optimierer sogar möglich Operatoren unterschiedlicher Domänen zu vertauschen, um besseren Anfrageplänen zu ermitteln. Für eine Fallstudie haben wir Teile des großen Datenintegrationsprojektes GovWILD auf Stratosphere mit den neuen Operatoren nachimplementiert und zeigen, dass unsere Anfragen signifikant schneller laufen als die originalen GovWILD Anfragen, die sich auf relationale Operatoren verlassen. Die Evaluation zeigt, dass unsere Operatoren gut auf bis zu 100 Kernen skalieren, sodass sogar größere Datensätze effizient verarbeitet werden können, indem die Anfragen auf mehr Maschinen ausgeführt werden. Schließlich sind unsere Skripte erheblich kürzer als die originalen GovWILD Skripte, was in besserer Wartbarkeit unserer Skripte resultiert. KW - data KW - cleansing KW - holistic KW - parallel KW - map reduce KW - Datenreinigung KW - Datenintegration KW - ganzheitlich KW - parallel KW - map reduce Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77100 ER - TY - THES A1 - Voland, Patrick T1 - Webbasierte Visualisierung von Extended Floating Car Data (XFCD) T1 - Web-based visualisation of Extended Floating Car Data (XFCD) BT - Ein Ansatz zur raumzeitlichen Visualisierung und technischen Implementierung mit Open Source Software unter spezieller Betrachtung des Umwelt- und Verkehrsmonitoring BT - An approach for spatio-temporal visualisation and implementation with open-source software under special emphasis of environment and traffic monitoring N2 - Moderne Kraftfahrzeuge verfügen über eine Vielzahl an Sensoren, welche für einen reibungslosen technischen Betrieb benötigt werden. Hierzu zählen neben fahrzeugspezifischen Sensoren (wie z.B. Motordrehzahl und Fahrzeuggeschwindigkeit) auch umweltspezifische Sensoren (wie z.B. Luftdruck und Umgebungstemperatur). Durch die zunehmende technische Vernetzung wird es möglich, diese Daten der Kraftfahrzeugelektronik aus dem Fahrzeug heraus für die verschiedensten Zwecke zu verwenden. Die vorliegende Arbeit soll einen Beitrag dazu leisten, diese neue Art an massenhaften Daten im Sinne des Konzepts der „Extended Floating Car Data“ (XFCD) als Geoinformationen nutzbar zu machen und diese für raumzeitliche Visualisierungen (zur visuellen Analyse) anwenden zu können. In diesem Zusammenhang wird speziell die Perspektive des Umwelt- und Verkehrsmonitoring betrachtet, wobei die Anforderungen und Potentiale mit Hilfe von Experteninterviews untersucht werden. Es stellt sich die Frage, welche Daten durch die Kraftfahrzeugelektronik geliefert und wie diese möglichst automatisiert erfasst, verarbeitet, visualisiert und öffentlich bereitgestellt werden können. Neben theoretischen und technischen Grundlagen zur Datenerfassung und -nutzung liegt der Fokus auf den Methoden der kartographischen Visualisierung. Dabei soll der Frage nachgegangenen werden, ob eine technische Implementierung ausschließlich unter Verwendung von Open Source Software möglich ist. Das Ziel der Arbeit bildet ein zweigliedriger Ansatz, welcher zum einen die Visualisierung für ein exemplarisch gewähltes Anwendungsszenario und zum anderen die prototypische Implementierung von der Datenerfassung im Fahrzeug unter Verwendung der gesetzlich vorgeschriebenen „On Board Diagnose“-Schnittstelle und einem Smartphone-gestützten Ablauf bis zur webbasierten Visualisierung umfasst. KW - spatio-temporal sensor data KW - open source software KW - automotive electronics KW - geovisualization Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96751 ER -