TY - JOUR A1 - Wannicke, Nicola A1 - Frindte, Katharina A1 - Gust, Giselher A1 - Liskow, Iris A1 - Wacker, Alexander A1 - Meyer, Andreas A1 - Grossart, Hans-Peter T1 - Measuring bacterial activity and community composition at high hydrostatic pressure using a novel experimental approach: a pilot study JF - FEMS microbiology ecology N2 - In this pilot study, we describe a high-pressure incubation system allowing multiple subsampling of a pressurized culture without decompression. The system was tested using one piezophilic (Photobacterium profundum), one piezotolerant (Colwellia maris) bacterial strain and a decompressed sample from the Mediterranean deep sea (3044 m) determining bacterial community composition, protein production (BPP) and cell multiplication rates (BCM) up to 27 MPa. The results showed elevation of BPP at high pressure was by a factor of 1.5 +/- 1.4 and 3.9 +/- 2.3 for P. profundum and C. maris, respectively, compared to ambient-pressure treatments and by a factor of 6.9 +/- 3.8 fold in the field samples. In P. profundum and C. maris, BCM at high pressure was elevated (3.1 +/- 1.5 and 2.9 +/- 1.7 fold, respectively) compared to the ambient-pressure treatments. After 3 days of incubation at 27 MPa, the natural bacterial deep-sea community was dominated by one phylum of the genus Exiguobacterium, indicating the rapid selection of piezotolerant bacteria. In future studies, our novel incubation system could be part of an isopiestic pressure chain, allowing more accurate measurement of bacterial activity rates which is important both for modeling and for predicting the efficiency of the oceanic carbon pump. KW - hydrostatic pressure KW - pressure chamber KW - piezophilic bacteria KW - deep-sea bacterial community KW - bacterial production KW - stable isotopes KW - membrane fatty acids Y1 - 2015 U6 - https://doi.org/10.1093/femsec/fiv036 SN - 0168-6496 SN - 1574-6941 VL - 91 IS - 5 PB - Oxford Univ. Press CY - Oxford ER - TY - JOUR A1 - Herzberg, Nico A1 - Meyer, Andreas A1 - Weske, Mathias T1 - Improving business process intelligence by observing object state transitions JF - Data & knowledge engineering N2 - During the execution of business processes several events happen that are recorded in the company's information systems. These events deliver insights into process executions so that process monitoring and analysis can be performed resulting, for instance, in prediction of upcoming process steps or the analysis of the run time of single steps. While event capturing is trivial when a process engine with integrated logging capabilities is used, manual process execution environments do not provide automatic logging of events, so that typically external devices, like bar code scanners, have to be used. As experience shows, these manual steps are error-prone and induce additional work. Therefore, we use object state transitions as additional monitoring information, so-called object state transition events. Based on these object state transition events, we reason about the enablement and termination of activities and provide the basis for process monitoring and analysis in terms of a large event log. In this paper, we present the concept to utilize information from these object state transition events for capturing process progress. Furthermore, we discuss a methodology to create the required design time artifacts that then are used for monitoring at run time. In a proof-of-concept implementation, we show how the design time and run time side work and prove applicability of the introduced concept of object state transition events. (C) 2015 Elsevier B.V. All rights reserved. KW - Business process management KW - Events KW - Data KW - Process Monitoring KW - BPMN Y1 - 2015 U6 - https://doi.org/10.1016/j.datak.2015.07.008 SN - 0169-023X SN - 1872-6933 VL - 98 SP - 144 EP - 164 PB - Elsevier CY - Amsterdam ER - TY - JOUR A1 - Meyer, Andreas A1 - Pufahl, Luise A1 - Batoulis, Kimon A1 - Fahland, Dirk A1 - Weske, Mathias T1 - Automating data exchange in process choreographies JF - Information systems N2 - Communication between organizations is formalized as process choreographies in daily business. While the correct ordering of exchanged messages can be modeled and enacted with current choreography techniques, no approach exists to describe and automate the exchange of data between processes in a choreography using messages. This paper describes an entirely model-driven approach for BPMN introducing a few concepts that suffice to model data retrieval, data transformation, message exchange, and correlation four aspects of data exchange. For automation, this work utilizes a recent concept to enact data dependencies in internal processes. We present a modeling guideline to derive local process models from a given choreography; their operational semantics allows to correctly enact the entire choreography from the derived models only including the exchange of data. Targeting on successful interactions, we discuss means to ensure correct process choreography modeling. Finally, we implemented our approach by extending the camunda BPM platform with our approach and show its feasibility by realizing all service interaction patterns using only model-based concepts. (C) 2015 Elsevier Ltd. All rights reserved. KW - Process modeling KW - Data modeling KW - Process choreographies KW - Data exchange KW - BPMN KW - SQL Y1 - 2015 U6 - https://doi.org/10.1016/j.is.2015.03.008 SN - 0306-4379 SN - 1873-6076 VL - 53 SP - 296 EP - 329 PB - Elsevier CY - Oxford ER - TY - THES A1 - Meyer, Andreas T1 - Data perspective in business process management T1 - Daten im Geschäftsprozessmanagement BT - the role of data for process modeling, analysis, and execution BT - ihre Rolle für Prozessmodellierung, -analyse und -ausführung N2 - Geschäftsprozessmanagement ist ein strukturierter Ansatz zur Modellierung, Analyse, Steuerung und Ausführung von Geschäftsprozessen, um Geschäftsziele zu erreichen. Es stützt sich dabei auf konzeptionelle Modelle, von denen Prozessmodelle am weitesten verbreitet sind. Prozessmodelle beschreiben wer welche Aufgabe auszuführen hat, um das Geschäftsziel zu erreichen, und welche Informationen dafür benötigt werden. Damit beinhalten Prozessmodelle Informationen über den Kontrollfluss, die Zuweisung von Verantwortlichkeiten, den Datenfluss und Informationssysteme. Die Automatisierung von Geschäftsprozessen erhöht die Effizienz der Arbeitserledigung und wird durch Process Engines unterstützt. Dafür werden jedoch Informationen über den Kontrollfluss, die Zuweisung von Verantwortlichkeiten für Aufgaben und den Datenfluss benötigt. Während aktuelle Process Engines die ersten beiden Informationen weitgehend automatisiert verarbeiten können, müssen Daten manuell implementiert und gewartet werden. Dem entgegen verspricht ein modell-getriebenes Behandeln von Daten eine vereinfachte Implementation in der Process Engine und verringert gleichzeitig die Fehleranfälligkeit dank einer graphischen Visualisierung und reduziert den Entwicklungsaufwand durch Codegenerierung. Die vorliegende Dissertation beschäftigt sich mit der Modellierung, der Analyse und der Ausführung von Daten in Geschäftsprozessen. Als formale Basis für die Prozessausführung wird ein konzeptuelles Framework für die Integration von Prozessen und Daten eingeführt. Dieses Framework wird durch operationelle Semantik ergänzt, die mittels einem um Daten erweiterten Petrinetz-Mapping vorgestellt wird. Die modellgetriebene Ausführung von Daten muss komplexe Datenabhängigkeiten, Prozessdaten und den Datenaustausch berücksichtigen. Letzterer tritt bei der Kommunikation zwischen mehreren Prozessteilnehmern auf. Diese Arbeit nutzt Konzepte aus dem Bereich der Datenbanken und überführt diese ins Geschäftsprozessmanagement, um Datenoperationen zu unterscheiden, um Abhängigkeiten zwischen Datenobjekten des gleichen und verschiedenen Typs zu spezifizieren, um modellierte Datenknoten sowie empfangene Nachrichten zur richtigen laufenden Prozessinstanz zu korrelieren und um Nachrichten für die Prozessübergreifende Kommunikation zu generieren. Der entsprechende Ansatz ist nicht auf eine bestimmte Prozessbeschreibungssprache begrenzt und wurde prototypisch implementiert. Die Automatisierung der Datenbehandlung in Geschäftsprozessen erfordert entsprechend annotierte und korrekte Prozessmodelle. Als Unterstützung zur Datenannotierung führt diese Arbeit einen Algorithmus ein, welcher Informationen über Datenknoten, deren Zustände und Datenabhängigkeiten aus Kontrollflussinformationen extrahiert und die Prozessmodelle entsprechend annotiert. Allerdings können gewöhnlich nicht alle erforderlichen Informationen aus Kontrollflussinformationen extrahiert werden, da detaillierte Angaben über mögliche Datenmanipulationen fehlen. Deshalb sind weitere Prozessmodellverfeinerungen notwendig. Basierend auf einer Menge von Objektlebenszyklen kann ein Prozessmodell derart verfeinert werden, dass die in den Objektlebenszyklen spezifizierten Datenmanipulationen automatisiert in ein Prozessmodell überführt werden können. Prozessmodelle stellen eine Abstraktion dar. Somit fokussieren sie auf verschiedene Teilbereiche und stellen diese im Detail dar. Solche Detailbereiche sind beispielsweise die Kontrollflusssicht und die Datenflusssicht, welche oft durch Aktivitäts-zentrierte beziehungsweise Objekt-zentrierte Prozessmodelle abgebildet werden. In der vorliegenden Arbeit werden Algorithmen zur Transformation zwischen diesen Sichten beschrieben. Zur Sicherstellung der Modellkorrektheit wird das Konzept der „weak conformance“ zur Überprüfung der Konsistenz zwischen Objektlebenszyklen und dem Prozessmodell eingeführt. Dabei darf das Prozessmodell nur Datenmanipulationen enthalten, die auch in einem Objektlebenszyklus spezifiziert sind. Die Korrektheit wird mittels Soundness-Überprüfung einer hybriden Darstellung ermittelt, so dass Kontrollfluss- und Datenkorrektheit integriert überprüft werden. Um eine korrekte Ausführung des Prozessmodells zu gewährleisten, müssen gefundene Inkonsistenzen korrigiert werden. Dafür werden für jede Inkonsistenz alternative Vorschläge zur Modelladaption identifiziert und vorgeschlagen. Zusammengefasst, unter Einsatz der Ergebnisse dieser Dissertation können Geschäftsprozesse modellgetrieben ausgeführt werden unter Berücksichtigung sowohl von Daten als auch den zuvor bereits unterstützten Perspektiven bezüglich Kontrollfluss und Verantwortlichkeiten. Dabei wird die Modellerstellung teilweise mit automatisierten Algorithmen unterstützt und die Modellkonsistenz durch Datenkorrektheitsüberprüfungen gewährleistet. N2 - Business process management (BPM) is a systematic and structured approach to model, analyze, control, and execute business operations also referred to as business processes that get carried out to achieve business goals. Central to BPM are conceptual models. Most prominently, process models describe which tasks are to be executed by whom utilizing which information to reach a business goal. Process models generally cover the perspectives of control flow, resource, data flow, and information systems. Execution of business processes leads to the work actually being carried out. Automating them increases the efficiency and is usually supported by process engines. This, though, requires the coverage of control flow, resource assignments, and process data. While the first two perspectives are well supported in current process engines, data handling needs to be implemented and maintained manually. However, model-driven data handling promises to ease implementation, reduces the error-proneness through graphical visualization, and reduces development efforts through code generation. This thesis addresses the modeling, analysis, and execution of data in business processes and presents a novel approach to execute data-annotated process models entirely model-driven. As a first step and formal grounding for the process execution, a conceptual framework for the integration of processes and data is introduced. This framework is complemented by operational semantics through a Petri net mapping extended with data considerations. Model-driven data execution comprises the handling of complex data dependencies, process data, and data exchange in case of communication between multiple process participants. This thesis introduces concepts from the database domain into BPM to enable the distinction of data operations, to specify relations between data objects of the same as well as of different types, to correlate modeled data nodes as well as received messages to the correct run-time process instances, and to generate messages for inter-process communication. The underlying approach, which is not limited to a particular process description language, has been implemented as proof-of-concept. Automation of data handling in business processes requires data-annotated and correct process models. Targeting the former, algorithms are introduced to extract information about data nodes, their states, and data dependencies from control information and to annotate the process model accordingly. Usually, not all required information can be extracted from control flow information, since some data manipulations are not specified. This requires further refinement of the process model. Given a set of object life cycles specifying allowed data manipulations, automated refinement of the process model towards containment of all data manipulations is enabled. Process models are an abstraction focusing on specific aspects in detail, e.g., the control flow and the data flow views are often represented through activity-centric and object-centric process models. This thesis introduces algorithms for roundtrip transformations enabling the stakeholder to add information to the process model in the view being most appropriate. Targeting process model correctness, this thesis introduces the notion of weak conformance that checks for consistency between given object life cycles and the process model such that the process model may only utilize data manipulations specified directly or indirectly in an object life cycle. The notion is computed via soundness checking of a hybrid representation integrating control flow and data flow correctness checking. Making a process model executable, identified violations must be corrected. Therefore, an approach is proposed that identifies for each violation multiple, alternative changes to the process model or the object life cycles. Utilizing the results of this thesis, business processes can be executed entirely model-driven from the data perspective in addition to the control flow and resource perspectives already supported before. Thereby, the model creation is supported by algorithms partly automating the creation process while model consistency is ensured by data correctness checks. KW - business process management KW - process automation KW - model-driven KW - data KW - data objects KW - model transformation KW - data correctness checking KW - process refinement KW - data extraction KW - data states KW - formal framework KW - process and data integration KW - Geschäftsprozessmanagement KW - Prozessautomatisierung KW - Modellgetrieben KW - Daten KW - Datenobjekte KW - Modelltransformation KW - Datenkorrektheit KW - Prozessverfeinerung KW - Datenextraktion KW - Datenzustände KW - formales Framework KW - Prozess- und Datenintegration Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-84806 ER - TY - BOOK A1 - Meyer, Andreas A1 - Weske, Mathias T1 - Weak conformance between process models and synchronized object life cycles N2 - Process models specify behavioral execution constraints between activities as well as between activities and data objects. A data object is characterized by its states and state transitions represented as object life cycle. For process execution, all behavioral execution constraints must be correct. Correctness can be verified via soundness checking which currently only considers control flow information. For data correctness, conformance between a process model and its object life cycles is checked. Current approaches abstract from dependencies between multiple data objects and require fully specified process models although, in real-world process repositories, often underspecified models are found. Coping with these issues, we introduce the concept of synchronized object life cycles and we define a mapping of data constraints of a process model to Petri nets extending an existing mapping. Further, we apply the notion of weak conformance to process models to tell whether each time an activity needs to access a data object in a particular state, it is guaranteed that the data object is in or can reach the expected state. Then, we introduce an algorithm for an integrated verification of control flow correctness and weak data conformance using soundness checking. N2 - Prozessmodelle spezifizieren die Verhaltensabhängigkeiten bezüglich der Ausführung sowohl zwischen Aktivitäten als auch zwischen Aktivitäten und Datenobjekten. Ein Datenobjekt wird über seine Zustände und Zustandsübergänge charakterisiert, welche in einem Objektlebenszyklus abgebildet werden. Für eine fehlerfreie Prozessausführung müssen alle Verhaltensabhängigkeiten korrekt modelliert werden. Eine Standardtechnik zur Korrektheitsüberprüfung ist das Überprüfen auf Soundness. Aktuelle Ansätze berücksichtigen allerdings nur den Kontrollfluss. Datenkorrektheit wird dagegen mittels Conformance zwischen einem Prozessmodel und den verwendeten Objektlebenszyklen überprüft, indem die Existenz eines Zustandsüberganges im Prozessmodell auch im Objektlebenszyklus möglich sein muss. Allerdings abstrahieren aktuelle Ansätze von Abhängigkeiten zwischen mehreren Datenobjekten und erfordern eine vollständige Prozessmodellspezifikation, d.h. das Überspringen oder Zusammenfassen von Zuständen beziehungsweise das Auslagern von Zustandsüberhängen in andere Prozessmodelle ist zum Beispiel nicht vorgesehen. In Prozessmodellsammlungen aus der Praxis sind allerdings oft solche unterspezifizierten Prozessmodelle vorhanden. In diesem Report adressieren wir diese Problemstellungen. Dazu führen wir das Konzept der synchronisierten Objektlebenszyklen ein, erweitern ein Mapping von Prozessmodellen zu Petri Netzen um Datenabhängigkeiten und wenden das Konzept der Weak Conformance auf Prozessmodelle an, um zu entscheiden ob immer wenn eine Aktivität auf ein Datenobjekt zugreift dieses auch im richtigen Zustand vorliegt. Dazu kann das Datenobjekt bereits in diesem Zustand sein oder aber diesen über eine beliebige Anzahl von Zustandsübergängen erreichen. Basierend auf diesen Konzepten führen wir auch einen Algorithmus ein, welcher ein integriertes Überprüfen von Kontrollfluss- und Datenflusskorrektheit unter Nutzung von Soundness-Überprüfungen ermöglicht. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 91 KW - business process management KW - data flow correctness KW - object life cycle synchronization KW - Petri net mapping KW - conformance checking KW - Geschäftsprozessmanagement KW - Datenflusskorrektheit KW - Objektlebenszyklus-Synchronisation KW - Petri net Mapping KW - Conformance Überprüfung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71722 SN - 978-3-86956-303-9 SN - 1613-5652 SN - 2191-1665 IS - 91 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Pufahl, Luise A1 - Meyer, Andreas A1 - Weske, Mathias T1 - Batch regions : process instance synchronization based on data N2 - Business process automation improves organizations’ efficiency to perform work. In existing business process management systems, process instances run independently from each other. However, synchronizing instances carrying similar characteristics, i.e., sharing the same data, can reduce process execution costs. For example, if an online retailer receives two orders from one customer, there is a chance that they can be packed and shipped together to save shipment costs. In this paper, we use concepts from the database domain and introduce data views to business processes to identify instances which can be synchronized. Based on data views, we introduce the concept of batch regions for a context-aware instance synchronization over a set of connected activities. We also evaluate the concepts introduced in this paper with a case study comparing costs for normal and batch processing. N2 - Die Automatisierung von Geschäftsprozessen unterstützt Unternehmen, die Ausführung ihrer Prozesse effizienter zu gestalten. In existierenden Business Process Management Systemen, werden die Instanzen eines Prozesses völlig unabhängig voneinander ausgeführt. Jedoch kann das Synchronisieren von Instanzen mit ähnlichen Charakteristiken wie z.B. den gleichen Daten zu reduzierten Ausführungskosten führen. Zum Beispiel, wenn ein Onlinehändler zwei Bestellungen vom selben Kunden mit der gleichen Lieferanschrift erhält, können diese zusammen verpackt und versendet werden, um Versandkosten zu sparen. In diesem Papier verwenden wir Konzepte aus dem Datenbankbereich und führen Datensichten für Geschäftsprozesse ein, um Instanzen zu identifizieren, welche synchronisiert werden können. Auf Grundlage der Datensichten führen wir das Konzept der Batch-Regionen ein. Eine Batch-Region ermöglicht eine kontext-bewusste Instanzen-Synchronisierung über mehrere verbundene Aktivitäten. Das eingeführte Konzept wird mit einer Fallstudie evaluiert, bei der ein Kostenvergleich zwischen der normalen Prozessausführung und der Batchverarbeitung durchgeführt wird. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 86 KW - BPM KW - Batchverarbeitung KW - Gruppierung von Prozessinstanzen KW - Datensicht KW - BPM KW - batch processing KW - process instance grouping KW - data view Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69081 SN - 978-3-86956-280-3 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Meyer, Andreas A1 - Pufahl, Luise A1 - Fahland, Dirk A1 - Weske, Mathias T1 - Modeling and enacting complex data dependencies in business processes N2 - Enacting business processes in process engines requires the coverage of control flow, resource assignments, and process data. While the first two aspects are well supported in current process engines, data dependencies need to be added and maintained manually by a process engineer. Thus, this task is error-prone and time-consuming. In this report, we address the problem of modeling processes with complex data dependencies, e.g., m:n relationships, and their automatic enactment from process models. First, we extend BPMN data objects with few annotations to allow data dependency handling as well as data instance differentiation. Second, we introduce a pattern-based approach to derive SQL queries from process models utilizing the above mentioned extensions. Therewith, we allow automatic enactment of data-aware BPMN process models. We implemented our approach for the Activiti process engine to show applicability. N2 - Die Ausführung von Geschäftsprozessen in Process Engines benötigt Informationen über den Kontrollfluss, die Rollenzuordnungen und die Datenabhängigkeiten. Während die ersten beiden Aspekte bereits automatisiert von Process Engines unterstützt werden, müssen die Datenabhängigkeiten durch einen Prozessingenieur manuell hinzugefügt und gewartet werden. Allerdings ist diese Aufgabe sehr fehleranfällig und zeitintensiv. In diesem Report zeigen wir wie Prozesse mit komplexen Datenabhängigkeiten, z.B. m:n Beziehungen, modelliert und automatisiert ausgeführt werden können. Dazu erweitern wir zuerst BPMN Datenobjekte mit wenigen Annotationen, um das Handling von Datenabhängikeiten sowie die Differenzierung von Datenobjektinstanzen zu ermöglichen. Danach beschreiben wir einen Pattern-basierten Ansatz, um SQL-Queries, unter Nutzung der oben erwähnten Erweiterungen, aus Prozessmodellen abzuleiten. Damit erlauben wir die automatisierte Ausführung von Daten-orientierten BPMN Prozessmodellen. Um die Anwendbarkeit unseres Ansatzen zu demonstieren, implementierten wir ihn für die Process Engine Activiti. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 74 KW - Prozessmodellierung KW - Datenmodellierung KW - Prozessausführung KW - BPMN KW - SQL KW - Process Modeling KW - Data Modeling KW - Process Enactment KW - BPMN KW - SQL Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65103 SN - 978-3-86956-245-2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Meyer, Andreas A1 - Smirnov, Sergey A1 - Weske, Mathias T1 - Data in business processes N2 - Process and data are equally important for business process management. Process data is especially relevant in the context of automated business processes, process controlling, and representation of organizations' core assets. One can discover many process modeling languages, each having a specific set of data modeling capabilities and the level of data awareness. The level of data awareness and data modeling capabilities vary significantly from one language to another. This paper evaluates several process modeling languages with respect to the role of data. To find a common ground for comparison, we develop a framework, which systematically organizes process- and data-related aspects of the modeling languages elaborating on the data aspects. Once the framework is in place, we compare twelve process modeling languages against it. We generalize the results of the comparison and identify clusters of similar languages with respect to data awareness. N2 - Prozesse und Daten sind gleichermaßen wichtig für das Geschäftsprozessmanagement. Prozessdaten sind dabei insbesondere im Kontext der Automatisierung von Geschäftsprozessen, dem Prozesscontrolling und der Repräsentation der Vermögensgegenstände von Organisationen relevant. Es existieren viele Prozessmodellierungssprachen, von denen jede die Darstellung von Daten durch eine fest spezifizierte Menge an Modellierungskonstrukten ermöglicht. Allerdings unterscheiden sich diese Darstellungenund damit der Grad der Datenmodellierung stark untereinander. Dieser Report evaluiert verschiedene Prozessmodellierungssprachen bezüglich der Unterstützung von Datenmodellierung. Als einheitliche Grundlage entwickeln wir ein Framework, welches prozess- und datenrelevante Aspekte systematisch organisiert. Die Kriterien legen dabei das Hauptaugenmerk auf die datenrelevanten Aspekte. Nach Einführung des Frameworks vergleichen wir zwölf Prozessmodellierungssprachen gegen dieses. Wir generalisieren die Erkenntnisse aus den Vergleichen und identifizieren Cluster bezüglich des Grades der Datenmodellierung, in welche die einzelnen Sprachen eingeordnet werden. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 50 KW - business process modeling KW - process modeling languages KW - data modeling KW - data in business processes Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-53046 SN - 978-3-86956-144-8 PB - Universitätsverlag Potsdam CY - Potsdam ER -