TY - JOUR A1 - Frioux, Clémence A1 - Schaub, Torsten H. A1 - Schellhorn, Sebastian A1 - Siegel, Anne A1 - Wanko, Philipp T1 - Hybrid metabolic network completion JF - Theory and practice of logic programming N2 - Metabolic networks play a crucial role in biology since they capture all chemical reactions in an organism. While there are networks of high quality for many model organisms, networks for less studied organisms are often of poor quality and suffer from incompleteness. To this end, we introduced in previous work an answer set programming (ASP)-based approach to metabolic network completion. Although this qualitative approach allows for restoring moderately degraded networks, it fails to restore highly degraded ones. This is because it ignores quantitative constraints capturing reaction rates. To address this problem, we propose a hybrid approach to metabolic network completion that integrates our qualitative ASP approach with quantitative means for capturing reaction rates. We begin by formally reconciling existing stoichiometric and topological approaches to network completion in a unified formalism. With it, we develop a hybrid ASP encoding and rely upon the theory reasoning capacities of the ASP system dingo for solving the resulting logic program with linear constraints over reals. We empirically evaluate our approach by means of the metabolic network of Escherichia coli. Our analysis shows that our novel approach yields greatly superior results than obtainable from purely qualitative or quantitative approaches. KW - answer set programming KW - metabolic network KW - gap-filling KW - linear programming KW - hybrid solving KW - bioinformatics Y1 - 2018 U6 - https://doi.org/10.1017/S1471068418000455 SN - 1471-0684 SN - 1475-3081 VL - 19 IS - 1 SP - 83 EP - 108 PB - Cambridge University Press CY - New York ER - TY - GEN A1 - Fichte, Johannes Klaus A1 - Hecher, Markus A1 - Meier, Arne T1 - Counting Complexity for Reasoning in Abstract Argumentation T2 - The Thirty-Third AAAI Conference on Artificial Intelligence, the Thirty-First Innovative Applications of Artificial Intelligence Conference, the Ninth AAAI Symposium on Educational Advances in Artificial Intelligence N2 - In this paper, we consider counting and projected model counting of extensions in abstract argumentation for various semantics. When asking for projected counts we are interested in counting the number of extensions of a given argumentation framework while multiple extensions that are identical when restricted to the projected arguments count as only one projected extension. We establish classical complexity results and parameterized complexity results when the problems are parameterized by treewidth of the undirected argumentation graph. To obtain upper bounds for counting projected extensions, we introduce novel algorithms that exploit small treewidth of the undirected argumentation graph of the input instance by dynamic programming (DP). Our algorithms run in time double or triple exponential in the treewidth depending on the considered semantics. Finally, we take the exponential time hypothesis (ETH) into account and establish lower bounds of bounded treewidth algorithms for counting extensions and projected extension. Y1 - 2019 SN - 978-1-57735-809-1 SP - 2827 EP - 2834 PB - AAAI Press CY - Palo Alto ER - TY - JOUR A1 - Strickroth, Sven T1 - PLATON BT - Developing a Graphical Lesson Planning System for Prospective Teachers JF - Education Sciences N2 - Lesson planning is both an important and demanding task—especially as part of teacher training. This paper presents the requirements for a lesson planning system and evaluates existing systems regarding these requirements. One major drawback of existing software tools is that most are limited to a text- or form-based representation of the lesson designs. In this article, a new approach with a graphical, time-based representation with (automatic) analyses methods is proposed and the system architecture and domain model are described in detail. The approach is implemented in an interactive, web-based prototype called PLATON, which additionally supports the management of lessons in units as well as the modelling of teacher and student-generated resources. The prototype was evaluated in a study with 61 prospective teachers (bachelor’s and master’s preservice teachers as well as teacher trainees in post-university teacher training) in Berlin, Germany, with a focus on usability. The results show that this approach proofed usable for lesson planning and offers positive effects for the perception of time and self-reflection. KW - lesson planning KW - lesson preparation KW - support system KW - automatic feedback Y1 - 2019 U6 - https://doi.org/10.3390/educsci9040254 SN - 2227-7102 VL - 9 IS - 4 PB - MDPI CY - Basel ER - TY - THES A1 - Tiwari, Abhishek T1 - Enhancing Users’ Privacy: Static Resolution of the Dynamic Properties of Android N2 - The usage of mobile devices is rapidly growing with Android being the most prevalent mobile operating system. Thanks to the vast variety of mobile applications, users are preferring smartphones over desktops for day to day tasks like Internet surfing. Consequently, smartphones store a plenitude of sensitive data. This data together with the high values of smartphones make them an attractive target for device/data theft (thieves/malicious applications). Unfortunately, state-of-the-art anti-theft solutions do not work if they do not have an active network connection, e.g., if the SIM card was removed from the device. In the majority of these cases, device owners permanently lose their smartphone together with their personal data, which is even worse. Apart from that malevolent applications perform malicious activities to steal sensitive information from smartphones. Recent research considered static program analysis to detect dangerous data leaks. These analyses work well for data leaks due to inter-component communication, but suffer from shortcomings for inter-app communication with respect to precision, soundness, and scalability. This thesis focuses on enhancing users' privacy on Android against physical device loss/theft and (un)intentional data leaks. It presents three novel frameworks: (1) ThiefTrap, an anti-theft framework for Android, (2) IIFA, a modular inter-app intent information flow analysis of Android applications, and (3) PIAnalyzer, a precise approach for PendingIntent vulnerability analysis. ThiefTrap is based on a novel concept of an anti-theft honeypot account that protects the owner's data while preventing a thief from resetting the device. We implemented the proposed scheme and evaluated it through an empirical user study with 35 participants. In this study, the owner's data could be protected, recovered, and anti-theft functionality could be performed unnoticed from the thief in all cases. IIFA proposes a novel approach for Android's inter-component/inter-app communication (ICC/IAC) analysis. Our main contribution is the first fully automatic, sound, and precise ICC/IAC information flow analysis that is scalable for realistic apps due to modularity, avoiding combinatorial explosion: Our approach determines communicating apps using short summaries rather than inlining intent calls between components and apps, which requires simultaneously analyzing all apps installed on a device. We evaluate IIFA in terms of precision, recall, and demonstrate its scalability to a large corpus of real-world apps. IIFA reports 62 problematic ICC-/IAC-related information flows via two or more apps/components. PIAnalyzer proposes a novel approach to analyze PendingIntent related vulnerabilities. PendingIntents are a powerful and universal feature of Android for inter-component communication. We empirically evaluate PIAnalyzer on a set of 1000 randomly selected applications and find 1358 insecure usages of PendingIntents, including 70 severe vulnerabilities. N2 - Die Nutzung von mobilen Geräten nimmt rasant zu, wobei Android das häufigste mobile Betriebssystem ist. Dank der Vielzahl an mobilen Anwendungen bevorzugen Benutzer Smartphones gegenüber Desktops für alltägliche Aufgaben wie das Surfen im Internet. Folglich speichern Smartphones eine Vielzahl sensibler Daten. Diese Daten zusammen mit den hohen Werten von Smartphones machen sie zu einem attraktiven Ziel für Geräte/Datendiebstahl (Diebe/bösartige Anwendungen). Leider funktionieren moderne Diebstahlsicherungslösungen nicht, wenn sie keine aktive Netzwerkverbindung haben, z. B. wenn die SIM-Karte aus dem Gerät entnommen wurde. In den meisten Fällen verlieren Gerätebesitzer ihr Smartphone dauerhaft zusammen mit ihren persönlichen Daten, was noch schlimmer ist. Abgesehen davon gibt es bösartige Anwendungen, die schädliche Aktivitäten ausführen, um vertrauliche Informationen von Smartphones zu stehlen. Kürzlich durchgeführte Untersuchungen berücksichtigten die statische Programmanalyse zur Erkennung gefährlicher Datenlecks. Diese Analysen eignen sich gut für Datenlecks aufgrund der Kommunikation zwischen Komponenten, weisen jedoch hinsichtlich der Präzision, Zuverlässigkeit und Skalierbarkeit Nachteile für die Kommunikation zwischen Apps auf. Diese Dissertation konzentriert sich auf die Verbesserung der Privatsphäre der Benutzer auf Android gegen Verlust/Diebstahl von physischen Geräten und (un)vorsätzlichen Datenverlust. Es werden drei neuartige Frameworks vorgestellt: (1) ThiefTrap, ein Anti-Diebstahl-Framework für Android, (2) IIFA, eine modulare Inter-App Analyse des Informationsflusses von Android Anwendungen, und (3) PIAnalyzer, ein präziser Ansatz für PendingIntent Schwachstellenanalyse. ThiefTrap basiert auf einem neuartigen Konzept eines Diebstahlschutzkontos, das die Daten des Besitzers schützt und verhindert, dass ein Dieb das Gerät zurücksetzt. Wir haben das vorgeschlagene Schema implementiert und durch eine empirische Anwenderstudie mit 35 Teilnehmern ausgewertet. In dieser Studie könnten die Daten des Besitzers geschützt und wiederhergestellt werden, und die Diebstahlsicherungsfunktion konnte in jedem Fall unbemerkt vom Dieb ausgeführt werden. IIFA schlägt einen neuen Ansatz für die Analyse von Komponenten zwischen Komponenten/ Inter-App Kommunikation (ICC/IAC) von Android vor. Unser Hauptbeitrag ist die erste vollautomatische, solide und präzise ICC/IAC Informationsflussanalyse, die aufgrund ihrer Modularität für realistische Apps skalierbar ist und eine kombinatorische Explosion vermeidet: Unser Ansatz bestimmt, dass Apps über kurze Zusammenfassungen kommuniziert werden, anstatt Absichtsaufrufe zwischen Komponenten zu verwenden und Apps, bei denen gleichzeitig alle auf einem Gerät installierten Apps analysiert werden müssen. Wir bewerten IIFA in Bezug auf Präzision, Rückruf und demonstrieren seine Skalierbarkeit für einen großen Korpus realer Apps. IIFA meldet 62 problematische ICC- / IAC-bezogene Informationsflüsse über zwei oder mehr Apps / Komponenten. PIAnalyzer schlägt einen neuen Ansatz vor, um Schwachstellen im Zusammenhang mit PendingIntent zu analysieren. PendingIntents nutzen eine leistungsstarke und universelle Funktion von Android für die Kommunikation zwischen Komponenten. Wir evaluieren PIAnalyzer empirisch an einem Satz von 1000 zufällig ausgewählten Anwendungen und finden 1358 unsichere Verwendungen von PendingIntents, einschließlich 70 schwerwiegender Schwachstellen. KW - Android Security KW - Static Analysis KW - Privacy Protection Y1 - 2019 ER - TY - THES A1 - Böhne, Sebastian T1 - Different degrees of formality T1 - Verschiedene Formalitätsgrade BT - an introduction to the concept and a demonstration of its usefulness BT - Vorstellung des Konzepts und Nachweis seiner Nützlichkeit N2 - In this thesis we introduce the concept of the degree of formality. It is directed against a dualistic point of view, which only distinguishes between formal and informal proofs. This dualistic attitude does not respect the differences between the argumentations classified as informal and it is unproductive because the individual potential of the respective argumentation styles cannot be appreciated and remains untapped. This thesis has two parts. In the first of them we analyse the concept of the degree of formality (including a discussion about the respective benefits for each degree) while in the second we demonstrate its usefulness in three case studies. In the first case study we will repair Haskell B. Curry's view of mathematics, which incidentally is of great importance in the first part of this thesis, in light of the different degrees of formality. In the second case study we delineate how awareness of the different degrees of formality can be used to help students to learn how to prove. Third, we will show how the advantages of proofs of different degrees of formality can be combined by the development of so called tactics having a medium degree of formality. Together the three case studies show that the degrees of formality provide a convincing solution to the problem of untapped potential. N2 - In dieser Dissertation stellen wir das Konzept der Formalitätsgrade vor, welches sich gegen eine dualistische Sichtweise richtet, die nur zwischen formalen und informalen Beweisen unterscheidet. Letztere Sichtweise spiegelt nämlich die Unterschiede zwischen den als informal klassifizierten Argumentationen nicht wieder und ist außerdem unproduktiv, weil sie nicht in der Lage ist, das individuelle Potential der jeweiligen Argumentationsstile wertzuschätzen und auszuschöpfen. Die Dissertation hat zwei Teile. Im ersten analysieren wir das Konzept der Formalitätsgrade (eine Diskussion über die Vorteile der jeweiligen Grade eingeschlossen), während wir im zweiten Teil die Nützlichkeit der Formalitätsgrade anhand von drei Fallbeispielen nachweisen. Im ersten von diesen werden wir Haskell B. Currys Sichtweise zur Mathematik, die nebenbei bemerkt von größter Wichtigkeit für den ersten Teil der Dissertation ist, mithilfe der verschiedenen Formalitätsgrade reparieren. Im zweiten Fallbeispiel zeigen wir auf, wie die Beachtung der verschiedenen Formalitätsgrade den Studenten dabei helfen kann, das Beweisen zu erlernen. Im letzten Fallbeispiel werden wir dann zeigen, wie die Vorteile von Beweisen verschiedener Formalitätsgrade durch die Anwendung sogenannter Taktiken mittleren Formalitätsgrades kombiniert werden können. Zusammen zeigen die drei Fallbeispiele, dass die Formalitätsgrade eine überzeugende Lösung für das Problem des ungenutzten Potentials darstellen. KW - argumentation KW - Coq KW - Curry KW - degree of formality KW - formalism KW - logic KW - mathematics education KW - philosophy of mathematics KW - proof KW - proof assistant KW - proof environment KW - tactic KW - Argumentation KW - Beweis KW - Beweisassistent KW - Beweisumgebung KW - Coq KW - Curry KW - Formalismus KW - Formalitätsgrad KW - Logik KW - Mathematikdidaktik KW - Mathematikphilosophie KW - Taktik Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423795 N1 - CCS -> Applied computing -> Education -> Interactive learning environments CCS -> Theory of computation -> Logic CCS -> Computing methodologies -> Symbolic and algebraic manipulation -> Symbolic and algebraic algorithms -> Theorem proving algorithms ER - TY - THES A1 - Schneider, Jan Niklas T1 - Computational approaches for emotion research T1 - Computergestützte Methoden für die Emotionsforschung N2 - Emotionen sind ein zentrales Element menschlichen Erlebens und spielen eine wichtige Rolle bei der Entscheidungsfindung. Diese Dissertation identifiziert drei methodische Probleme der aktuellen Emotionsforschung und zeigt auf, wie diese mittels computergestützter Methoden gelöst werden können. Dieser Ansatz wird in drei Forschungsprojekten demonstriert, die die Entwicklung solcher Methoden sowie deren Anwendung auf konkrete Forschungsfragen beschreiben. Das erste Projekt beschreibt ein Paradigma welches es ermöglicht, die subjektive und objektive Schwierigkeit der Emotionswahrnehmung zu messen. Darüber hinaus ermöglicht es die Verwendung einer beliebigen Anzahl von Emotionskategorien im Vergleich zu den üblichen sechs Kategorien der Basisemotionen. Die Ergebnisse deuten auf eine Zunahme der Schwierigkeiten bei der Wahrnehmung von Emotionen mit zunehmendem Alter der Darsteller hin und liefern Hinweise darauf, dass junge Erwachsene, ältere Menschen und Männer ihre Schwierigkeit bei der Wahrnehmung von Emotionen unterschätzen. Weitere Analysen zeigten eine geringe Relevanz personenbezogener Variablen und deuteten darauf hin, dass die Schwierigkeit der Emotionswahrnehmung vornehmlich durch die Ausprägung der Wertigkeit des Ausdrucks bestimmt wird. Das zweite Projekt zeigt am Beispiel von Arousal, einem etablierten, aber vagen Konstrukt der Emotionsforschung, wie Face-Tracking-Daten dazu genutzt werden können solche Konstrukte zu schärfen. Es beschreibt, wie aus Face-Tracking-Daten Maße für die Entfernung, Geschwindigkeit und Beschleunigung von Gesichtsausdrücken berechnet werden können. Das Projekt untersuchte wie diesen Maße mit der Arousal-Wahrnehmung in Menschen mit und ohne Autismus zusammenhängen. Der Abstand zum Neutralgesicht war prädiktiv für die Arousal-Bewertungen in beiden Gruppen. Die Ergebnisse deuten auf eine qualitativ ähnliche Wahrnehmung von Arousal für Menschen mit und ohne Autismus hin. Im dritten Projekt stellen wir die Partial-Least-Squares-Analyse als allgemeine Methode vor, um eine optimale Repräsentation zur Verknüpfung zweier hochdimensionale Datensätze zu finden. Das Projekt demonstriert die Anwendbarkeit dieser Methode in der Emotionsforschung anhand der Frage nach Unterschieden in der Emotionswahrnehmung zwischen Männern und Frauen. Wir konnten zeigen, dass die emotionale Wahrnehmung von Frauen systematisch mehr Varianz der Gesichtsausdrücke erfasst und dass signifikante Unterschiede in der Art und Weise bestehen, wie Frauen und Männer einige Gesichtsausdrücke wahrnehmen. Diese konnten wir als dynamische Gesichtsausdrücke visualisieren. Um die Anwendung der entwickelten Methode für die Forschungsgemeinschaft zu erleichtern, wurde ein Software-Paket für die Statistikumgebung R geschrieben. Zudem wurde eine Website entwickelt (thisemotiondoesnotexist.com), die es Besuchern erlaubt, ein Partial-Least-Squares-Modell von Emotionsbewertungen und Face-Tracking-Daten interaktiv zu erkunden, um die entwickelte Methode zu verbreiten und ihren Nutzen für die Emotionsforschung zu illustrieren. N2 - Emotions are a central element of human experience. They occur with high frequency in everyday life and play an important role in decision making. However, currently there is no consensus among researchers on what constitutes an emotion and on how emotions should be investigated. This dissertation identifies three problems of current emotion research: the problem of ground truth, the problem of incomplete constructs and the problem of optimal representation. I argue for a focus on the detailed measurement of emotion manifestations with computer-aided methods to solve these problems. This approach is demonstrated in three research projects, which describe the development of methods specific to these problems as well as their application to concrete research questions. The problem of ground truth describes the practice to presuppose a certain structure of emotions as the a priori ground truth. This determines the range of emotion descriptions and sets a standard for the correct assignment of these descriptions. The first project illustrates how this problem can be circumvented with a multidimensional emotion perception paradigm which stands in contrast to the emotion recognition paradigm typically employed in emotion research. This paradigm allows to calculate an objective difficulty measure and to collect subjective difficulty ratings for the perception of emotional stimuli. Moreover, it enables the use of an arbitrary number of emotion stimuli categories as compared to the commonly used six basic emotion categories. Accordingly, we collected data from 441 participants using dynamic facial expression stimuli from 40 emotion categories. Our findings suggest an increase in emotion perception difficulty with increasing actor age and provide evidence to suggest that young adults, the elderly and men underestimate their emotion perception difficulty. While these effects were predicted from the literature, we also found unexpected and novel results. In particular, the increased difficulty on the objective difficulty measure for female actors and observers stood in contrast to reported findings. Exploratory analyses revealed low relevance of person-specific variables for the prediction of emotion perception difficulty, but highlighted the importance of a general pleasure dimension for the ease of emotion perception. The second project targets the problem of incomplete constructs which relates to vaguely defined psychological constructs on emotion with insufficient ties to tangible manifestations. The project exemplifies how a modern data collection method such as face tracking data can be used to sharpen these constructs on the example of arousal, a long-standing but fuzzy construct in emotion research. It describes how measures of distance, speed and magnitude of acceleration can be computed from face tracking data and investigates their intercorrelations. We find moderate to strong correlations among all measures of static information on one hand and all measures of dynamic information on the other. The project then investigates how self-rated arousal is tied to these measures in 401 neurotypical individuals and 19 individuals with autism. Distance to the neutral face was predictive of arousal ratings in both groups. Lower mean arousal ratings were found for the autistic group, but no difference in correlation of the measures and arousal ratings could be found between groups. Results were replicated in a high autistic traits group consisting of 41 participants. The findings suggest a qualitatively similar perception of arousal for individuals with and without autism. No correlations between valence ratings and any of the measures could be found which emphasizes the specificity of our tested measures for the construct of arousal. The problem of optimal representation refers to the search for the best representation of emotions and the assumption that there is a one-fits-all solution. In the third project we introduce partial least squares analysis as a general method to find an optimal representation to relate two high-dimensional data sets to each other. The project demonstrates its applicability to emotion research on the question of emotion perception differences between men and women. The method was used with emotion rating data from 441 participants and face tracking data computed on 306 videos. We found quantitative as well as qualitative differences in the perception of emotional facial expressions between these groups. We showed that women’s emotional perception systematically captured more of the variance in facial expressions. Additionally, we could show that significant differences exist in the way that women and men perceive some facial expressions which could be visualized as concrete facial expression sequences. These expressions suggest differing perceptions of masked and ambiguous facial expressions between the sexes. In order to facilitate use of the developed method by the research community, a package for the statistical environment R was written. Furthermore, to call attention to the method and its usefulness for emotion research, a website was designed that allows users to explore a model of emotion ratings and facial expression data in an interactive fashion. KW - facial expression KW - emotion KW - perception KW - face tracking KW - perception differences KW - emotion representation KW - Gesichtsausdruck KW - Emotionen KW - Wahrnehmung KW - Wahrnehmungsunterschiede KW - computational methods KW - emotion research KW - computergestützte Methoden KW - Emotionsforschung KW - arousal perception KW - objective difficulty KW - Wahrnehmung von Arousal KW - Objektive Schwierigkeit Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-459275 ER - TY - GEN A1 - Alhosseini Almodarresi Yasin, Seyed Ali A1 - Bin Tareaf, Raad A1 - Najafi, Pejman A1 - Meinel, Christoph T1 - Detect me if you can BT - Spam Bot Detection Using Inductive Representation Learning T2 - Companion Proceedings of The 2019 World Wide Web Conference N2 - Spam Bots have become a threat to online social networks with their malicious behavior, posting misinformation messages and influencing online platforms to fulfill their motives. As spam bots have become more advanced over time, creating algorithms to identify bots remains an open challenge. Learning low-dimensional embeddings for nodes in graph structured data has proven to be useful in various domains. In this paper, we propose a model based on graph convolutional neural networks (GCNN) for spam bot detection. Our hypothesis is that to better detect spam bots, in addition to defining a features set, the social graph must also be taken into consideration. GCNNs are able to leverage both the features of a node and aggregate the features of a node’s neighborhood. We compare our approach, with two methods that work solely on a features set and on the structure of the graph. To our knowledge, this work is the first attempt of using graph convolutional neural networks in spam bot detection. KW - Social Media Analysis KW - Bot Detection KW - Graph Embedding KW - Graph Convolutional Neural Networks Y1 - 2019 SN - 978-1-4503-6675-5 U6 - https://doi.org/10.1145/3308560.3316504 SP - 148 EP - 153 PB - Association for Computing Machinery CY - New York ER - TY - JOUR A1 - Schaub, Torsten H. A1 - Woltran, Stefan T1 - Answer set programming unleashed! JF - Künstliche Intelligenz N2 - Answer Set Programming faces an increasing popularity for problem solving in various domains. While its modeling language allows us to express many complex problems in an easy way, its solving technology enables their effective resolution. In what follows, we detail some of the key factors of its success. Answer Set Programming [ASP; Brewka et al. Commun ACM 54(12):92–103, (2011)] is seeing a rapid proliferation in academia and industry due to its easy and flexible way to model and solve knowledge-intense combinatorial (optimization) problems. To this end, ASP offers a high-level modeling language paired with high-performance solving technology. As a result, ASP systems provide out-off-the-box, general-purpose search engines that allow for enumerating (optimal) solutions. They are represented as answer sets, each being a set of atoms representing a solution. The declarative approach of ASP allows a user to concentrate on a problem’s specification rather than the computational means to solve it. This makes ASP a prime candidate for rapid prototyping and an attractive tool for teaching key AI techniques since complex problems can be expressed in a succinct and elaboration tolerant way. This is eased by the tuning of ASP’s modeling language to knowledge representation and reasoning (KRR). The resulting impact is nicely reflected by a growing range of successful applications of ASP [Erdem et al. AI Mag 37(3):53–68, 2016; Falkner et al. Industrial applications of answer set programming. K++nstliche Intelligenz (2018)] Y1 - 2018 U6 - https://doi.org/10.1007/s13218-018-0550-z SN - 0933-1875 SN - 1610-1987 VL - 32 IS - 2-3 SP - 105 EP - 108 PB - Springer CY - Heidelberg ER - TY - GEN A1 - Schaub, Torsten H. A1 - Woltran, Stefan T1 - Special issue on answer set programming T2 - Künstliche Intelligenz Y1 - 2018 U6 - https://doi.org/10.1007/s13218-018-0554-8 SN - 0933-1875 SN - 1610-1987 VL - 32 IS - 2-3 SP - 101 EP - 103 PB - Springer CY - Heidelberg ER - TY - JOUR A1 - Baier, Thomas A1 - Di Ciccio, Claudio A1 - Mendling, Jan A1 - Weske, Mathias T1 - Matching events and activities by integrating behavioral aspects and label analysis JF - Software and systems modeling N2 - Nowadays, business processes are increasingly supported by IT services that produce massive amounts of event data during the execution of a process. These event data can be used to analyze the process using process mining techniques to discover the real process, measure conformance to a given process model, or to enhance existing models with performance information. Mapping the produced events to activities of a given process model is essential for conformance checking, annotation and understanding of process mining results. In order to accomplish this mapping with low manual effort, we developed a semi-automatic approach that maps events to activities using insights from behavioral analysis and label analysis. The approach extracts Declare constraints from both the log and the model to build matching constraints to efficiently reduce the number of possible mappings. These mappings are further reduced using techniques from natural language processing, which allow for a matching based on labels and external knowledge sources. The evaluation with synthetic and real-life data demonstrates the effectiveness of the approach and its robustness toward non-conforming execution logs. KW - Process mining KW - Event mapping KW - Business process intelligence KW - Constraint satisfaction KW - Declare KW - Natural language processing Y1 - 2018 U6 - https://doi.org/10.1007/s10270-017-0603-z SN - 1619-1366 SN - 1619-1374 VL - 17 IS - 2 SP - 573 EP - 598 PB - Springer CY - Heidelberg ER - TY - JOUR A1 - Przybylla, Mareen A1 - Romeike, Ralf T1 - Empowering learners with tools in CS education BT - physical computing in secondary schools JF - it - Information Technology N2 - In computer science, computer systems are both, objects of investigation and tools that enable creative learning and design. Tools for learning have a long tradition in computer science education. Already in the late 1960s, Papert developed a concept which had an immense impact on the development of informal education in the following years: his theory of constructionism understands learning as a creative process of knowledge construction that is most effective when learners create something purposeful that they can try out, show around, discuss, analyse and receive praise for. By now, there are numerous learning and programming environments that are based on the constructionist ideas. Modern tools offer opportunities for students to learn in motivating ways and gain impressive results in programming games, animations, implementing 3D models or developing interactive objects. This article gives an overview of computer science education research related to tools and media to be used in educational settings. We analyse different types of tools with a special focus on the categorization and development of tools for student adequate physical computing activities in the classroom. Research around the development and evaluation of tools and learning resources in the domain of physical computing is illustrated with the example of "My Interactive Garden", a constructionist learning and programming environment. It is explained how the results from empirical studies are integrated in the continuous development of the learning material. KW - tools KW - media KW - resources KW - computer science education KW - physical computing Y1 - 2018 U6 - https://doi.org/10.1515/itit-2017-0032 SN - 1611-2776 SN - 2196-7032 VL - 60 IS - 2 SP - 91 EP - 101 PB - De Gruyter CY - Berlin ER - TY - GEN A1 - Frank, Mario A1 - Kreitz, Christoph T1 - A theorem prover for scientific and educational purposes T2 - Electronic proceedings in theoretical computer science N2 - We present a prototype of an integrated reasoning environment for educational purposes. The presented tool is a fragment of a proof assistant and automated theorem prover. We describe the existing and planned functionality of the theorem prover and especially the functionality of the educational fragment. This currently supports working with terms of the untyped lambda calculus and addresses both undergraduate students and researchers. We show how the tool can be used to support the students' understanding of functional programming and discuss general problems related to the process of building theorem proving software that aims at supporting both research and education. Y1 - 2018 U6 - https://doi.org/10.4204/EPTCS.267.4 SN - 2075-2180 IS - 267 SP - 59 EP - 69 PB - Open Publishing Association CY - Sydney ER - TY - GEN A1 - Schäpers, Björn A1 - Niemueller, Tim A1 - Lakemeyer, Gerhard A1 - Gebser, Martin A1 - Schaub, Torsten H. T1 - ASP-Based Time-Bounded Planning for Logistics Robots T2 - Twenty-Eighth International Conference on Automated Planning and Scheduling (ICAPS 2018) N2 - Manufacturing industries are undergoing a major paradigm shift towards more autonomy. Automated planning and scheduling then becomes a necessity. The Planning and Execution Competition for Logistics Robots in Simulation held at ICAPS is based on this scenario and provides an interesting testbed. However, the posed problem is challenging as also demonstrated by the somewhat weak results in 2017. The domain requires temporal reasoning and dealing with uncertainty. We propose a novel planning system based on Answer Set Programming and the Clingo solver to tackle these problems and incentivize robot cooperation. Our results show a significant performance improvement, both, in terms of lowering computational requirements and better game metrics. Y1 - 2018 SN - 2334-0835 SN - 2334-0843 SP - 509 EP - 517 PB - ASSOC Association for the Advancement of Artificial Intelligence CY - Palo Alto ER - TY - CHAP A1 - Kiy, Alexander A1 - Knoth, Alexander Henning A1 - Müller, Ina ED - Harris-Huemmert, Susan ED - Pohlenz, Philipp ED - Mitterauer, Lukas T1 - ReflectUP-App Situative und kontextbezogene Evaluation des Studieneinstiegs T2 - Digitalisierung der Hochschullehre Neue Anforderungen an die Evaluation? Y1 - 2018 SN - 978-3-8309-3807-1 SP - 85 EP - 102 PB - Waxmann CY - Münster ER - TY - GEN A1 - Bordihn, Henning A1 - Nagy, Benedek A1 - Vaszil, György T1 - Preface: Non-classical models of automata and applications VIII T2 - RAIRO-Theoretical informatics and appli and applications Y1 - 2018 U6 - https://doi.org/10.1051/ita/2018019 SN - 0988-3754 SN - 1290-385X VL - 52 IS - 2-4 SP - 87 EP - 88 PB - EDP Sciences CY - Les Ulis ER - TY - GEN A1 - Afantenos, Stergos A1 - Peldszus, Andreas A1 - Stede, Manfred T1 - Comparing decoding mechanisms for parsing argumentative structures T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Parsing of argumentative structures has become a very active line of research in recent years. Like discourse parsing or any other natural language task that requires prediction of linguistic structures, most approaches choose to learn a local model and then perform global decoding over the local probability distributions, often imposing constraints that are specific to the task at hand. Specifically for argumentation parsing, two decoding approaches have been recently proposed: Minimum Spanning Trees (MST) and Integer Linear Programming (ILP), following similar trends in discourse parsing. In contrast to discourse parsing though, where trees are not always used as underlying annotation schemes, argumentation structures so far have always been represented with trees. Using the 'argumentative microtext corpus' [in: Argumentation and Reasoned Action: Proceedings of the 1st European Conference on Argumentation, Lisbon 2015 / Vol. 2, College Publications, London, 2016, pp. 801-815] as underlying data and replicating three different decoding mechanisms, in this paper we propose a novel ILP decoder and an extension to our earlier MST work, and then thoroughly compare the approaches. The result is that our new decoder outperforms related work in important respects, and that in general, ILP and MST yield very similar performance. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1062 KW - argumentation structure KW - argument mining KW - parsing Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-470527 SN - 1866-8372 IS - 1062 ER - TY - JOUR A1 - Gebser, Martin A1 - Obermeier, Philipp A1 - Schaub, Torsten H. A1 - Ratsch-Heitmann, Michel A1 - Runge, Mario T1 - Routing driverless transport vehicles in car assembly with answer set programming JF - Theory and practice of logic programming N2 - Automated storage and retrieval systems are principal components of modern production and warehouse facilities. In particular, automated guided vehicles nowadays substitute human-operated pallet trucks in transporting production materials between storage locations and assembly stations. While low-level control systems take care of navigating such driverless vehicles along programmed routes and avoid collisions even under unforeseen circumstances, in the common case of multiple vehicles sharing the same operation area, the problem remains how to set up routes such that a collection of transport tasks is accomplished most effectively. We address this prevalent problem in the context of car assembly at Mercedes-Benz Ludwigsfelde GmbH, a large-scale producer of commercial vehicles, where routes for automated guided vehicles used in the production process have traditionally been hand-coded by human engineers. Such adhoc methods may suffice as long as a running production process remains in place, while any change in the factory layout or production targets necessitates tedious manual reconfiguration, not to mention the missing portability between different production plants. Unlike this, we propose a declarative approach based on Answer Set Programming to optimize the routes taken by automated guided vehicles for accomplishing transport tasks. The advantages include a transparent and executable problem formalization, provable optimality of routes relative to objective criteria, as well as elaboration tolerance towards particular factory layouts and production targets. Moreover, we demonstrate that our approach is efficient enough to deal with the transport tasks evolving in realistic production processes at the car factory of Mercedes-Benz Ludwigsfelde GmbH. KW - automated guided vehicle routing KW - car assembly operations KW - answer set programming Y1 - 2018 U6 - https://doi.org/10.1017/S1471068418000182 SN - 1471-0684 SN - 1475-3081 VL - 18 IS - 3-4 SP - 520 EP - 534 PB - Cambridge Univ. Press CY - New York ER - TY - JOUR A1 - Gebser, Martin A1 - Kaminski, Roland A1 - Kaufmann, Benjamin A1 - Lühne, Patrick A1 - Obermeier, Philipp A1 - Ostrowski, Max A1 - Romero Davila, Javier A1 - Schaub, Torsten H. A1 - Schellhorn, Sebastian A1 - Wanko, Philipp T1 - The Potsdam Answer Set Solving Collection 5.0 JF - Künstliche Intelligenz N2 - The Potsdam answer set solving collection, or Potassco for short, bundles various tools implementing and/or applying answer set programming. The article at hand succeeds an earlier description of the Potassco project published in Gebser et al. (AI Commun 24(2):107-124, 2011). Hence, we concentrate in what follows on the major features of the most recent, fifth generation of the ASP system clingo and highlight some recent resulting application systems. Y1 - 2018 U6 - https://doi.org/10.1007/s13218-018-0528-x SN - 0933-1875 SN - 1610-1987 VL - 32 IS - 2-3 SP - 181 EP - 182 PB - Springer CY - Heidelberg ER - TY - JOUR A1 - Haubelt, Christian A1 - Neubauer, Kai A1 - Schaub, Torsten H. A1 - Wanko, Philipp T1 - Design space exploration with answer set programming JF - Künstliche Intelligenz N2 - The aim of our project design space exploration with answer set programming is to develop a general framework based on Answer Set Programming (ASP) that finds valid solutions to the system design problem and simultaneously performs Design Space Exploration (DSE) to find the most favorable alternatives. We leverage recent developments in ASP solving that allow for tight integration of background theories to create a holistic framework for effective DSE. Y1 - 2018 U6 - https://doi.org/10.1007/s13218-018-0530-3 SN - 0933-1875 SN - 1610-1987 VL - 32 IS - 2-3 SP - 205 EP - 206 PB - Springer CY - Heidelberg ER - TY - GEN A1 - Lifschitz, Vladimir A1 - Schaub, Torsten H. A1 - Woltran, Stefan T1 - Interview with Vladimir Lifschitz T2 - Künstliche Intelligenz N2 - This interview with Vladimir Lifschitz was conducted by Torsten Schaub at the University of Texas at Austin in August 2017. The question set was compiled by Torsten Schaub and Stefan Woltran. Y1 - 2018 U6 - https://doi.org/10.1007/s13218-018-0552-x SN - 0933-1875 SN - 1610-1987 VL - 32 IS - 2-3 SP - 213 EP - 218 PB - Springer CY - Heidelberg ER - TY - GEN A1 - Brewka, Gerhard A1 - Schaub, Torsten H. A1 - Woltran, Stefan T1 - Interview with Gerhard Brewka T2 - Künstliche Intelligenz N2 - This interview with Gerhard Brewka was conducted by correspondance in May 2018. The question set was compiled by Torsten Schaub and Stefan Woltran. Y1 - 2018 U6 - https://doi.org/10.1007/s13218-018-0549-5 SN - 0933-1875 SN - 1610-1987 VL - 32 IS - 2-3 SP - 219 EP - 221 PB - Springer CY - Heidelberg ER - TY - JOUR A1 - Prescher, Denise A1 - Bornschein, Jens A1 - Köhlmann, Wiebke A1 - Weber, Gerhard T1 - Touching graphical applications BT - bimanual tactile interaction on the HyperBraille pin-matrix display JF - Universal Access in the Information Society N2 - Novel two-dimensional tactile displays enable blind users to not only get access to the textual but also to the graphical content of a graphical user interface. Due to the higher amount of information that can be presented in parallel, orientation and exploration can be more complex. In this paper we present the HyperBraille system, which consists of a pin-matrix device as well as a graphical screen reader providing the user with appropriate presentation and interaction possibilities. To allow for a detailed analysis of bimanual interaction strategies on a pin-matrix device, we conducted two user studies with a total of 12 blind people. The task was to fill in .pdf forms on the pin-matrix device by using different input methods, namely gestures, built-in hardware buttons as well as a conventional PC keyboard. The forms were presented in a semigraphic view type that not only contains Braille but also tactile widgets in a spatial arrangement. While completion time and error rate partly depended on the chosen input method, the usage of special reading strategies seemed to be independent of it. A direct comparison of the system and a conventional assistive technology (screen reader with single-line Braille device) showed that interaction on the pin-matrix device can be very efficient if the user is trained. The two-dimensional output can improve access to .pdf forms with insufficient accessibility as the mapping of input controls and the corresponding labels can be supported by a spatial presentation. KW - Planar tactile display KW - Blind users KW - pdf forms KW - Screen reader KW - Gesture input KW - Key input Y1 - 2018 U6 - https://doi.org/10.1007/s10209-017-0538-8 SN - 1615-5289 SN - 1615-5297 VL - 17 IS - 2 SP - 391 EP - 409 PB - Springer CY - Heidelberg ER - TY - JOUR A1 - Afantenos, Stergos A1 - Peldszus, Andreas A1 - Stede, Manfred T1 - Comparing decoding mechanisms for parsing argumentative structures JF - Argument & Computation N2 - Parsing of argumentative structures has become a very active line of research in recent years. Like discourse parsing or any other natural language task that requires prediction of linguistic structures, most approaches choose to learn a local model and then perform global decoding over the local probability distributions, often imposing constraints that are specific to the task at hand. Specifically for argumentation parsing, two decoding approaches have been recently proposed: Minimum Spanning Trees (MST) and Integer Linear Programming (ILP), following similar trends in discourse parsing. In contrast to discourse parsing though, where trees are not always used as underlying annotation schemes, argumentation structures so far have always been represented with trees. Using the ‘argumentative microtext corpus’ [in: Argumentation and Reasoned Action: Proceedings of the 1st European Conference on Argumentation, Lisbon 2015 / Vol. 2, College Publications, London, 2016, pp. 801–815] as underlying data and replicating three different decoding mechanisms, in this paper we propose a novel ILP decoder and an extension to our earlier MST work, and then thoroughly compare the approaches. The result is that our new decoder outperforms related work in important respects, and that in general, ILP and MST yield very similar performance. KW - Argumentation structure KW - argument mining KW - parsing Y1 - 2018 U6 - https://doi.org/10.3233/AAC-180033 SN - 1946-2166 SN - 1946-2174 VL - 9 IS - 3 SP - 177 EP - 192 PB - IOS Press CY - Amsterdam ER - TY - GEN A1 - Neubauer, Kai A1 - Haubelt, Christian A1 - Wanko, Philipp A1 - Schaub, Torsten H. T1 - Utilizing quad-trees for efficient design space exploration with partial assignment evaluation T2 - 2018 23rd Asia and South Pacific Design Automation Conference (ASP-DAC) N2 - Recently, it has been shown that constraint-based symbolic solving techniques offer an efficient way for deciding binding and routing options in order to obtain a feasible system level implementation. In combination with various background theories, a feasibility analysis of the resulting system may already be performed on partial solutions. That is, infeasible subsets of mapping and routing options can be pruned early in the decision process, which fastens the solving accordingly. However, allowing a proper design space exploration including multi-objective optimization also requires an efficient structure for storing and managing non-dominated solutions. In this work, we propose and study the usage of the Quad-Tree data structure in the context of partial assignment evaluation during system synthesis. Out experiments show that unnecessary dominance checks can be avoided, which indicates a preference of Quad-Trees over a commonly used list-based implementation for large combinatorial optimization problems. Y1 - 2018 SN - 978-1-5090-0602-1 U6 - https://doi.org/10.1109/ASPDAC.2018.8297362 SN - 2153-6961 SP - 434 EP - 439 PB - IEEE CY - New York ER - TY - GEN A1 - Bosser, Anne-Gwenn A1 - Cabalar, Pedro A1 - Dieguez, Martin A1 - Schaub, Torsten H. T1 - Introducing temporal stable models for linear dynamic logic T2 - 16th International Conference on Principles of Knowledge Representation and Reasoning N2 - We propose a new temporal extension of the logic of Here-and-There (HT) and its equilibria obtained by combining it with dynamic logic over (linear) traces. Unlike previous temporal extensions of HT based on linear temporal logic, the dynamic logic features allow us to reason about the composition of actions. For instance, this can be used to exercise fine grained control when planning in robotics, as exemplified by GOLOG. In this paper, we lay the foundations of our approach, and refer to it as Linear Dynamic Equilibrium Logic, or simply DEL. We start by developing the formal framework of DEL and provide relevant characteristic results. Among them, we elaborate upon the relationships to traditional linear dynamic logic and previous temporal extensions of HT. Y1 - 2018 UR - https://www.dc.fi.udc.es/~cabalar/del.pdf SP - 12 EP - 21 PB - ASSOC Association for the Advancement of Artificial Intelligence CY - Palo Alto ER - TY - GEN A1 - Sahlmann, Kristina A1 - Schwotzer, Thomas T1 - Ontology-based virtual IoT devices for edge computing T2 - Proceedings of the 8th International Conference on the Internet of Things N2 - An IoT network may consist of hundreds heterogeneous devices. Some of them may be constrained in terms of memory, power, processing and network capacity. Manual network and service management of IoT devices are challenging. We propose a usage of an ontology for the IoT device descriptions enabling automatic network management as well as service discovery and aggregation. Our IoT architecture approach ensures interoperability using existing standards, i.e. MQTT protocol and SemanticWeb technologies. We herein introduce virtual IoT devices and their semantic framework deployed at the edge of network. As a result, virtual devices are enabled to aggregate capabilities of IoT devices, derive new services by inference, delegate requests/responses and generate events. Furthermore, they can collect and pre-process sensor data. These tasks on the edge computing overcome the shortcomings of the cloud usage regarding siloization, network bandwidth, latency and speed. We validate our proposition by implementing a virtual device on a Raspberry Pi. KW - Internet of Things KW - Edge Computing KW - oneM2M Ontology KW - M2M KW - Semantic Interoperability KW - MQTT Y1 - 2018 SN - 978-1-4503-6564-2 U6 - https://doi.org/10.1145/3277593.3277597 SP - 1 EP - 7 PB - Association for Computing Machinery CY - New York ER - TY - GEN A1 - Böhne, Sebastian A1 - Kreitz, Christoph T1 - Learning how to prove BT - from the coq proof assistant to textbook style T2 - Electronic proceedings in theoretical computer science N2 - We have developed an alternative approach to teaching computer science students how to prove. First, students are taught how to prove theorems with the Coq proof assistant. In a second, more difficult, step students will transfer their acquired skills to the area of textbook proofs. In this article we present a realisation of the second step. Proofs in Coq have a high degree of formality while textbook proofs have only a medium one. Therefore our key idea is to reduce the degree of formality from the level of Coq to textbook proofs in several small steps. For that purpose we introduce three proof styles between Coq and textbook proofs, called line by line comments, weakened line by line comments, and structure faithful proofs. While this article is mostly conceptional we also report on experiences with putting our approach into practise. Y1 - 2018 U6 - https://doi.org/10.4204/EPTCS.267.1 SN - 2075-2180 IS - 267 SP - 1 EP - 18 PB - Open Publishing Association CY - Sydney ER - TY - JOUR A1 - Banbara, Mutsunori A1 - Inoue, Katsumi A1 - Kaufmann, Benjamin A1 - Okimoto, Tenda A1 - Schaub, Torsten H. A1 - Soh, Takehide A1 - Tamura, Naoyuki A1 - Wanko, Philipp T1 - teaspoon BT - solving the curriculum-based course timetabling problems with answer set programming JF - Annals of operation research N2 - Answer Set Programming (ASP) is an approach to declarative problem solving, combining a rich yet simple modeling language with high performance solving capacities. We here develop an ASP-based approach to curriculum-based course timetabling (CB-CTT), one of the most widely studied course timetabling problems. The resulting teaspoon system reads a CB-CTT instance of a standard input format and converts it into a set of ASP facts. In turn, these facts are combined with a first-order encoding for CB-CTT solving, which can subsequently be solved by any off-the-shelf ASP systems. We establish the competitiveness of our approach by empirically contrasting it to the best known bounds obtained so far via dedicated implementations. Furthermore, we extend the teaspoon system to multi-objective course timetabling and consider minimal perturbation problems. KW - Educational timetabling KW - Course timetabling KW - Answer set programming KW - Multi-objective optimization KW - Minimal perturbation problems Y1 - 2018 U6 - https://doi.org/10.1007/s10479-018-2757-7 SN - 0254-5330 SN - 1572-9338 VL - 275 IS - 1 SP - 3 EP - 37 PB - Springer CY - Dordrecht ER - TY - JOUR A1 - Giannini, Paola A1 - Richter, Tim A1 - Servetto, Marco A1 - Zucca, Elena T1 - Tracing sharing in an imperative pure calculus JF - Science of computer programming N2 - We introduce a type and effect system, for an imperative object calculus, which infers sharing possibly introduced by the evaluation of an expression, represented as an equivalence relation among its free variables. This direct representation of sharing effects at the syntactic level allows us to express in a natural way, and to generalize, widely-used notions in literature, notably uniqueness and borrowing. Moreover, the calculus is pure in the sense that reduction is defined on language terms only, since they directly encode store. The advantage of this non-standard execution model with respect to a behaviorally equivalent standard model using a global auxiliary structure is that reachability relations among references are partly encoded by scoping. (C) 2018 Elsevier B.V. All rights reserved. KW - Imperative calculi KW - Sharing KW - Type and effect systems Y1 - 2018 U6 - https://doi.org/10.1016/j.scico.2018.11.007 SN - 0167-6423 SN - 1872-7964 VL - 172 SP - 180 EP - 202 PB - Elsevier CY - Amsterdam ER - TY - THES A1 - Ostrowski, Max T1 - Modern constraint answer set solving T1 - Moderne Constraint Antwortmengenprogrammierung N2 - Answer Set Programming (ASP) is a declarative problem solving approach, combining a rich yet simple modeling language with high-performance solving capabilities. Although this has already resulted in various applications, certain aspects of such applications are more naturally modeled using variables over finite domains, for accounting for resources, fine timings, coordinates, or functions. Our goal is thus to extend ASP with constraints over integers while preserving its declarative nature. This allows for fast prototyping and elaboration tolerant problem descriptions of resource related applications. The resulting paradigm is called Constraint Answer Set Programming (CASP). We present three different approaches for solving CASP problems. The first one, a lazy, modular approach combines an ASP solver with an external system for handling constraints. This approach has the advantage that two state of the art technologies work hand in hand to solve the problem, each concentrating on its part of the problem. The drawback is that inter-constraint dependencies cannot be communicated back to the ASP solver, impeding its learning algorithm. The second approach translates all constraints to ASP. Using the appropriate encoding techniques, this results in a very fast, monolithic system. Unfortunately, due to the large, explicit representation of constraints and variables, translation techniques are restricted to small and mid-sized domains. The third approach merges the lazy and the translational approach, combining the strength of both while removing their weaknesses. To this end, we enhance the dedicated learning techniques of an ASP solver with the inferences of the translating approach in a lazy way. That is, the important knowledge is only made explicit when needed. By using state of the art techniques from neighboring fields, we provide ways to tackle real world, industrial size problems. By extending CASP to reactive solving, we open up new application areas such as online planning with continuous domains and durations. N2 - Die Antwortmengenprogrammierung (ASP) ist ein deklarativer Ansatz zur Problemlösung. Eine ausdrucksstarke Modellierungssprache erlaubt es, Probleme einfach und flexibel zu beschreiben. Durch sehr effiziente Problemlösungstechniken, konnten bereits verschiedene Anwendungsgebiete erschlossen werden. Allerdings lassen sich Probleme mit Ressourcen besser mit Gleichungen über Ganze oder Reelle Zahlen lösen, anstatt mit reiner Boolescher Logik. In dieser Arbeit erweitern wir ASP mit Arithmetik über Ganze Zahlen zu Constraint Answer Set Programming (CASP). Unser Hauptaugenmerk liegt dabei auf der Erweiterung der Modellierungssprache mit Arithmetik, ohne Performanz oder Flexibilität einzubüßen. In einem ersten, bedarfsgesteuertem, modularen Ansatz kombinieren wir einen ASP Solver mit einem externen System zur Lösung von ganzzahligen Gleichungen. Der Vorteil dieses Ansatzes besteht darin, dass zwei verschiedene Technologien Hand in Hand arbeiten, wobei jede nur ihren Teil des Problems betrachten muss. Ein Nachteil der sich daraus ergibt ist jedoch, dass Abhängigkeiten zwischen den Gleichungen nicht an den ASP Solver kommuniziert werden können. Das beeinträchtigt die Lernfähigkeit des zu Grunde liegenden Algorithmus. Der zweite von uns verfolgte Ansatz übersetzt die ganzzahligen Gleichungen direkt nach ASP. Durch entsprechende Kodierungstechniken erhält man ein sehr effizientes, monolithisches System. Diese Übersetzung erfordert eine explizite Darstellung aller Variablen und Gleichungen. Daher ist dieser Ansatz nur für kleine bis mittlere Wertebereiche geeignet. Die dritte Methode, die wir in dieser Arbeit vorstellen, vereinigt die Vorteile der beiden vorherigen Ansätze und überwindet ihre Kehrseiten. Wir entwickeln einen lernenden Algorithmus, der die Arithmetik implizit lässt. Dies befreit uns davon, eine möglicherweise riesige Menge an Variablen und Formeln zu speichern, und erlaubt es uns gleichzeitig dieses Wissen zu nutzen. Das Ziel dieser Arbeit ist es, durch die Kombination hochmoderner Technologien, industrielle Anwendungsgebiete für ASP zu erschliessen. Die verwendeten Techniken erlauben eine Erweiterung von CASP mit reaktiven Elementen. Das heißt, dass das Lösen des Problems ein interaktiver Prozess wird. Das Problem kann dabei ständig verändert und erweitert werden, ohne dass Informationen verloren gehen oder neu berechnet werden müssen. Dies eröffnet uns neue Möglichkeiten, wie zum Beispiel reaktives Planen mit Ressourcen und Zeiten. KW - ASP (Answer Set Programming) KW - CASP (Constraint Answer Set Programming) KW - constraints KW - hybrid KW - SMT (SAT Modulo Theories) KW - Antwortmengenprogrammierung KW - hybrides Problemlösen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407799 ER - TY - JOUR A1 - Tscherejkina, Anna A1 - Morgiel, Anna A1 - Moebert, Tobias T1 - Computergestütztes Training von sozio-emotionalen Kompetenzen durch Minispiele JF - E-Learning Symposium 2018 N2 - Das Training sozioemotionaler Kompetenzen ist gerade für Menschen mit Autismus nützlich. Ein solches Training kann mithilfe einer spielbasierten Anwendung effektiv gestaltet werden. Zwei Minispiele, Mimikry und Emo-Mahjong, wurden realisiert und hinsichtlich User Experience evaluiert. Die jeweiligen Konzepte und die Evaluationsergebnisse sollen hier vorgestellt werden. KW - Computergestützes Training KW - User Experience KW - Digital Game Based Learning KW - Autismus Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421937 SP - 41 EP - 52 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Przybylla, Mareen T1 - From Embedded Systems to Physical Computing: Challenges of the “Digital World” in Secondary Computer Science Education T1 - Von Eingebetteten Systemen zu Physical Computing: Herausforderungen der “Digitalen Welt” in der informatischen Bildung im Sekundarbereich N2 - Physical computing covers the design and realization of interactive objects and installations and allows learners to develop concrete, tangible products of the real world, which arise from their imagination. This can be used in computer science education to provide learners with interesting and motivating access to the different topic areas of the subject in constructionist and creative learning environments. However, if at all, physical computing has so far mostly been taught in afternoon clubs or other extracurricular settings. Thus, for the majority of students so far there are no opportunities to design and create their own interactive objects in regular school lessons. Despite its increasing popularity also for schools, the topic has not yet been clearly and sufficiently characterized in the context of computer science education. The aim of this doctoral thesis therefore is to clarify physical computing from the perspective of computer science education and to adequately prepare the topic both content-wise and methodologically for secondary school teaching. For this purpose, teaching examples, activities, materials and guidelines for classroom use are developed, implemented and evaluated in schools. In the theoretical part of the thesis, first the topic is examined from a technical point of view. A structured literature analysis shows that basic concepts used in physical computing can be derived from embedded systems, which are the core of a large field of different application areas and disciplines. Typical methods of physical computing in professional settings are analyzed and, from an educational perspective, elements suitable for computer science teaching in secondary schools are extracted, e. g. tinkering and prototyping. The investigation and classification of suitable tools for school teaching show that microcontrollers and mini computers, often with extensions that greatly facilitate the handling of additional components, are particularly attractive tools for secondary education. Considering the perspectives of science, teachers, students and society, in addition to general design principles, exemplary teaching approaches for school education and suitable learning materials are developed and the design, production and evaluation of a physical computing construction kit suitable for teaching is described. In the practical part of this thesis, with “My Interactive Garden”, an exemplary approach to integrate physical computing in computer science teaching is tested and evaluated in different courses and refined based on the findings in a design-based research approach. In a series of workshops on physical computing, which is based on a concept for constructionist professional development that is developed specifically for this purpose, teachers are empowered and encouraged to develop and conduct physical computing lessons suitable for their particular classroom settings. Based on their in-class experiences, a process model of physical computing teaching is derived. Interviews with those teachers illustrate that benefits of physical computing, including the tangibility of crafted objects and creativity in the classroom, outweigh possible drawbacks like longer preparation times, technical difficulties or difficult assessment. Hurdles in the classroom are identified and possible solutions discussed. Empirical investigations in the different settings reveal that “My Interactive Garden” and physical computing in general have a positive impact, among others, on learner motivation, fun and interest in class and perceived competencies. Finally, the results from all evaluations are combined to evaluate the design principles for physical computing teaching and to provide a perspective on the development of decision-making aids for physical computing activities in school education. N2 - Physical Computing ist die Gestaltung interaktiver Objekte und Installationen und ermöglicht Lernenden, konkrete, greifbare Produkte der realen Welt zu schaffen, die ihrer eigenen Vorstellung entsprechen. Dies kann in der informatischen Bildung genutzt werden, um Lernenden einen interessanten und motivierenden Zugang zu den verschiedenen Themengebieten des Lerngegenstandes in konstruktionistischen und kreativen Lernumgebungen anzubieten. Bisher wurde Physical Computing allerdings, wenn überhaupt, vorrangig in Nachmittagsaktivitäten und anderen extracurricularen Kontexten unterrichtet. Daher hat ein Großteil aller Schülerinnen und Schüler bisher keine Gelegenheit, im Rahmen von Schulunterricht selbst gestalterisch tätig zu werden und interaktive Objekte herzustellen. Trotz zunehmender Popularität, auch in Schulen, wurde das Thema bisher im Kontext der informatischen Bildung nicht hinreichend klar charakterisiert. Ziel dieser Dissertation ist es daher, Physical Computing aus informatikdidaktischer Sicht zu klären und sowohl inhaltlich als auch methodisch adäquat für den Schulunterricht in den Sekundarstufen aufzubereiten. Dazu werden Unterrichtsbeispiele, -aktivitäten, -materialien und -empfehlungen entwickelt, in Schulen eingesetzt und evaluiert. Im theoretischen Teil der Arbeit wird das Thema zunächst aus fachlicher Perspektive untersucht. Eine strukturierte Literaturanalyse zeigt, dass grundlegende Konzepte des Physical Computings aus dem Fachgebiet Eingebettete Systeme abgeleitet werden können, welches den Kern diverser Anwendungsgebiete und Disziplinen bildet. Typische Methoden des Physical Computings werden analysiert und geeignete Elemente für den Informatikunterricht der Sekundarstufen werden aus didaktischer Perspektive herausgearbeitet, beispielsweise Tinkering und Prototyping. Bei der Untersuchung und Klassifikation geeigneter Werkzeuge für den Schulunterricht kristallisieren sich Mikrocontroller und Mini-Computer, oft mit Erweiterungen zur deutlichen Vereinfachung der Handhabung zusätzlicher Komponenten, als besonders attraktive Werkzeuge für die Sekundarstufen heraus. Unter Berücksichtigung der Perspektiven der Fachwissenschaft, Lehrer, Schüler und Gesellschaft werden zusätzlich zu allgemeinen Gestaltungsprinzipien auch beispielhafte Unterrichtsansätze für die schulische Bildung und geeignete Lernmaterialien entwickelt und der Entwurf, die Produktion und Evaluation eines für den Unterricht geeigneten Physical-Computing-Baukastens beschrieben. Im praktischen Teil der Arbeit wird in einem Design-Based-Research-Ansatz mit „My Interactive Garden“ eine beispielhafte Umsetzung von Physical Computing im Informatikunterricht in verschiedenen Kursen getestet, evaluiert und entsprechend der Erkenntnisse überarbeitet. In einer Workshopreihe zum Thema Physical Computing, welche auf einem eigens entwickelten konstruktionistischen Lehrerfortbildungskonzept basiert, werden Lehrer befähigt und ermutigt, für ihre konkreten Unterrichtssituationen geeigneten Physical-Computing-Unterricht zu planen und durchzuführen. Aus ihren Unterrichtserfahrungen wird ein Prozessmodell für Physical-Computing-Unterricht abgeleitet. Interviews mit diesen Lehrern illustrieren, dass Vorteile des Physical Computings, z. B. die Greifbarkeit gebastelter Objekte und Kreativität im Unterricht, mögliche Nachteile wie längere Vorbereitungszeiten, technische Schwierigkeiten oder schwierige Leistungsbewertung, überwiegen. Hürden im Unterricht werden identifiziert und mögliche Ansätze, diese zu umgehen, diskutiert. Empirische Untersuchungen in den verschiedenen Unterrichtsumsetzungen zeigen, das sowohl „My Interactive Garden“ als auch Physical Computing im Allgemeinen einen positiven Einfluss unter anderem auf Lernermotivation, Spaß und Interesse im Unterricht und wahrgenommene Kompetenzen haben. Abschließend werden die Ergebnisse aller Untersuchungen zusammengeführt, um die Gestaltungsprinzipien für Physical-Computing-Unterricht zu evaluieren und einen Ausblick auf die Entwicklung von Entscheidungshilfen für Physical-Computing-Aktivitäten in der schulischen Bildung zu geben. KW - secondary computer science education KW - embedded systems KW - physical computing KW - educational reconstruction KW - design principles KW - classroom material KW - tools for teaching KW - informatische Bildung im Sekundarbereich KW - eingebettete Systeme KW - physical Computing KW - didaktische Rekonstruktion KW - Entwurfsprinzipien KW - Schulmaterial KW - Unterrichtswerkzeuge Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418339 ER - TY - JOUR A1 - Kiy, Alexander T1 - Digitale Medien & Hochschul-Cloud: Eine vielversprechende Verbindung JF - eleed N2 - Ob Online-Kurse, videobasierte Lehrangebote, mobile Applikationen, eigenentwickelte oder kommerzielle Web 2.0-Anwendungen, die Fülle digitaler Unterstützungsangebote ist kaum zu überblicken. Dabei bieten mobile Endgeräte, Web-Anwendungen und Apps Chancen Lehre, Studium und Forschung maßgeblich neu zu gestalten. Im Beitrag wird ein Beschreibungsrahmen für die mediendidaktische Ausgestaltung von Lehr-, Lern- und Forschungsarrangements vorgestellt, der die technischen Gesichtspunkte hervorhebt. Anschließend werden unterschiedliche Nutzungsszenarien unter Einbeziehung digitaler Medien skizziert. Diese werden als Ausgangspunkt genommen um das Konzept einer Systemarchitektur vorzustellen, die es zum einen ermöglicht beliebige Applikationen automatisiert bereit zu stellen und zum anderen die anfallenden Nutzendendaten plattformübergreifend zu aggregieren und für eine Ausgestaltung virtueller Lehr- und Lernräumen zu nutzen. KW - e-learning KW - Digitale Medien KW - Berliner Modell KW - TPACK KW - Hochschullehre KW - Hochschul-Cloud KW - xAPI KW - SaaSAbstract Y1 - 2018 UR - https://eleed.campussource.de/archive/se2018/4659 IS - 12 ER - TY - CHAP A1 - Kiy, Alexander A1 - Lucke, Ulrike ED - de Witt, Claudia ED - Gloerfeld, Christina T1 - Mobile Unterstützung im Studienalltag zwischen Generalität und Individualität T2 - Handbuch Mobile Learning N2 - Mobile Endgeräte und Applikationen (Apps) sind dank vielfältiger Kommunikations-, Informations- und Assistenzfunktionen zu einem unverzichtbaren Bestandteil unseres täglichen Lebens geworden. Inzwischen hat sich insbesondere im Hochschulumfeld eine bunte Vielfalt an mobilen Unterstützungsangeboten etabliert, beginnend bei zentral angebotenen Uni-Apps bis hin zu unterschiedlichen Apps zur Ausgestaltung einzelner Lehrveranstaltungen oder individueller Lehr- und Lernszenarien. Angesichts der großen Aufwände zur Entwicklung, Distribution und Pflege mobiler Anwendungen ist ein Einsatz für eine möglichst große Zielgruppe wünschenswert. Dies kann jedoch mit dem Charakter mobiler Endgeräte als persönliche, individualisierte Assistenten kollidieren. In diesem Beitrag werden entlang dieses Spektrums zwischen (fach-)spezifischen Einzellösungen und breiten Allroundern verschiedene mobile Unterstützungsangebote aus dem Hochschulbereich vorgestellt, hinsichtlich ihres Einsatzes kontextuell eingeordnet und systematisiert. Dies umfasst mobile Anwendungen, die allgemeine organisatorische Aspekte des Studiums, bestimmte Felder wie die Studieneingangsphase oder die konkrete Begleitung hybrider Lernszenarien fokussieren. Es schließt sich eine App-Auswahl an, die fachspezifischen Aspekten Rechnung trägt und in denen Inhalte in Form von Serious Games, Simulationen und Inhaltsmodulen aufbereitet sind. Neben Lehre und Studium wird auch die Forschung in den Fokus gerückt, wo Apps gleichermaßen als Forschungsgegenstand und Datenerhebungsinstrument wirken. Aus der Fülle dieser Entwicklungen resultiert eine App-Vielfalt, die verschiedene Herausforderungen aufwirft. Der Beitrag stellt die spezifischen Herausforderungen zusammen und spricht Empfehlungen aus. Dabei werden sowohl organisatorische, inhaltliche und technische Fragestellungen thematisiert als auch rechtliche Gesichtspunkte bezüglich Datenschutz und Copyright tangiert. KW - Mobile Learning KW - mobile Applikationen KW - Apps KW - Hochschul-Apps KW - TPACK KW - SAMR Y1 - 2018 SN - 978-3-658-19123-8 U6 - https://doi.org/10.1007/978-3-658-19123-8_37 VL - 2018 SP - 777 EP - 808 PB - Springer VS CY - Wiesbaden ER - TY - THES A1 - Feinbube, Frank T1 - Ansätze zur Integration von Beschleunigern ins Betriebssystem Y1 - 2018 ER - TY - JOUR A1 - Bordihn, Henning A1 - Mitrana, Victor A1 - Negru, Maria C. A1 - Paun, Andrei A1 - Paun, Mihaela T1 - Small networks of polarized splicing processors are universal JF - Natural computing : an innovative journal bridging biosciences and computer sciences ; an international journal N2 - In this paper, we consider the computational power of a new variant of networks of splicing processors in which each processor as well as the data navigating throughout the network are now considered to be polarized. While the polarization of every processor is predefined (negative, neutral, positive), the polarization of data is dynamically computed by means of a valuation mapping. Consequently, the protocol of communication is naturally defined by means of this polarization. We show that networks of polarized splicing processors (NPSP) of size 2 are computationally complete, which immediately settles the question of designing computationally complete NPSPs of minimal size. With two more nodes we can simulate every nondeterministic Turing machine without increasing the time complexity. Particularly, we prove that NPSP of size 4 can accept all languages in NP in polynomial time. Furthermore, another computational model that is universal, namely the 2-tag system, can be simulated by NPSP of size 3 preserving the time complexity. All these results can be obtained with NPSPs with valuations in the set as well. We finally show that Turing machines can simulate a variant of NPSPs and discuss the time complexity of this simulation. KW - Computing with DNA KW - Splicing KW - Splicing processor KW - Polarization KW - 2-tag system KW - Turing machine Y1 - 2018 U6 - https://doi.org/10.1007/s11047-018-9691-0 SN - 1567-7818 SN - 1572-9796 VL - 17 IS - 4 SP - 799 EP - 809 PB - Springer CY - Dordrecht ER - TY - GEN A1 - Marwecki, Sebastian A1 - Baudisch, Patrick T1 - Scenograph BT - Fitting Real-Walking VR Experiences into Various Tracking Volumes T2 - UIST '18: Proceedings of the 31st Annual ACM Symposium on User Interface Software and Technology N2 - When developing a real-walking virtual reality experience, designers generally create virtual locations to fit a specific tracking volume. Unfortunately, this prevents the resulting experience from running on a smaller or differently shaped tracking volume. To address this, we present a software system called Scenograph. The core of Scenograph is a tracking volume-independent representation of real-walking experiences. Scenograph instantiates the experience to a tracking volume of given size and shape by splitting the locations into smaller ones while maintaining narrative structure. In our user study, participants' ratings of realism decreased significantly when existing techniques were used to map a 25m2 experience to 9m2 and an L-shaped 8m2 tracking volume. In contrast, ratings did not differ when Scenograph was used to instantiate the experience. KW - Virtual reality KW - real-walking KW - locomotion Y1 - 2018 SN - 978-1-4503-5948-1 U6 - https://doi.org/10.1145/3242587.3242648 SP - 511 EP - 520 PB - Association for Computing Machinery CY - New York ER - TY - JOUR A1 - Brewka, Gerhard A1 - Ellmauthaler, Stefan A1 - Kern-Isberner, Gabriele A1 - Obermeier, Philipp A1 - Ostrowski, Max A1 - Romero, Javier A1 - Schaub, Torsten H. A1 - Schieweck, Steffen T1 - Advanced solving technology for dynamic and reactive applications JF - Künstliche Intelligenz Y1 - 2018 U6 - https://doi.org/10.1007/s13218-018-0538-8 SN - 0933-1875 SN - 1610-1987 VL - 32 IS - 2-3 SP - 199 EP - 200 PB - Springer CY - Heidelberg ER - TY - GEN A1 - Klieme, Eric A1 - Tietz, Christian A1 - Meinel, Christoph T1 - Beware of SMOMBIES BT - Verification of Users based on Activities while Walking T2 - The 17th IEEE International Conference on Trust, Security and Privacy in Computing and Communications (IEEE TrustCom 2018)/the 12th IEEE International Conference on Big Data Science and Engineering (IEEE BigDataSE 2018) N2 - Several research evaluated the user's style of walking for the verification of a claimed identity and showed high authentication accuracies in many settings. In this paper we present a system that successfully verifies a user's identity based on many real world smartphone placements and yet not regarded interactions while walking. Our contribution is the distinction of all considered activities into three distinct subsets and a specific one-class Support Vector Machine per subset. Using sensor data of 30 participants collected in a semi-supervised study approach, we prove that unsupervised verification is possible with very low false-acceptance and false-rejection rates. We furthermore show that these subsets can be distinguished with a high accuracy and demonstrate that this system can be deployed on off-the-shelf smartphones. KW - gait KW - authentication KW - smartphone KW - activities KW - verification KW - behavioral KW - continuous Y1 - 2018 SN - 978-1-5386-4387-7 SN - 978-1-5386-4389-1 U6 - https://doi.org/10.1109/TrustCom/BigDataSE.2018.00096 SN - 2324-9013 SP - 651 EP - 660 PB - IEEE CY - New York ER - TY - CHAP A1 - Keil, Reinhard A1 - Konert, Johannes A1 - Damnik, Gregor A1 - Gierl, Mark J. A1 - Proske, Antje A1 - Körndle, Hermann A1 - Narciss, Susanne A1 - Wahl, Marina A1 - Hölscher, Michael A1 - Mariani, Ennio A1 - Jaisli, Isabel A1 - Tscherejkina, Anna A1 - Morgiel, Anna A1 - Moebert, Tobias A1 - Herbstreit, Stephanie A1 - Mäker, Daniela A1 - Szalai, Cynthia A1 - Braun, Iris A1 - Kapp, Felix A1 - Hara, Tenshi C. A1 - Kubica, Tommy A1 - Stumpf, Sarah ED - Lucke, Ulrike ED - Strickroth, Sven T1 - E-Learning Symposium 2018 BT - Innovation und Nachhaltigkeit – (k)ein Gegensatz?! N2 - In den vergangenen Jahren sind viele E-Learning-Innovationen entstanden. Einige davon wurden auf den vergangenen E-Learning Symposien der Universität Potsdam präsentiert: Das erste E-Learning Symposium im Jahr 2012 konzentrierte sich auf unterschiedliche Möglichkeiten der Studierendenaktivierung und Lehrgestaltung. Das Symposium 2014 rückte vor allem die Studierenden ins Zentrum der Aufmerksamkeit. Im Jahr 2016 kam es durch das Zusammengehen des Symposiums mit der DeLFI-Tagung zu einer Fokussierung auf technische Innovationen. Doch was ist aus den Leuchttürmen von gestern geworden, und brauchen wir überhaupt noch neue Leuchttürme? Das Symposium setzt sich in diesem Jahr unter dem Motto „Innovation und Nachhaltigkeit – (k)ein Gegensatz?“ mit mediengestützten Lehr- und Lernprozessen im universitären Kontext auseinander und reflektiert aktuelle technische sowie didaktische Entwicklungen mit Blick auf deren mittel- bis langfristigen Einsatz in der Praxis. Dieser Tagungsband zum E-Learning Symposium 2018 an der Universität Potsdam beinhaltet eine Mischung von Forschungs- und Praxisbeiträgen aus verschiedenen Fachdisziplinen und eröffnet vielschichtige Perspektiven auf das Thema E-Learning. Dabei werden die Vielfalt der didaktischen Einsatzszenarien als auch die Potentiale von Werk-zeugen und Methoden der Informatik in ihrem Zusammenspiel beleuchtet. In seiner Keynote widmet sich Reinhard Keil dem Motto des Symposiums und geht der Nachhaltigkeit bei E-Learning-Projekten auf den Grund. Dabei analysiert und beleuchtet er anhand seiner über 15-jährigen Forschungspraxis die wichtigsten Wirkfaktoren und formuliert Empfehlungen zur Konzeption von E-Learning-Projekten. Im Gegensatz zu rein auf Kostenersparnis ausgerichteten (hochschul-)politischen Forderungen proklamiert er den Ansatz der hypothesengeleiteten Technikgestaltung, in der Nachhaltigkeit als Leitfrage oder Forschungsstrategie verstanden werden kann. In eine ähnliche Richtung geht der Beitrag von Iris Braun et al., die über Erfolgsfaktoren beim Einsatz von Audience Response Systemen in der universitären Lehre berichten. Ein weiteres aktuelles Thema, sowohl für die Bildungstechnologie als auch in den Bildungswissenschaften allgemein, ist die Kompetenzorientierung und –modellierung. Hier geht es darum (Problemlöse-)Fähigkeiten gezielt zu beschreiben und in den Mittelpunkt der Lehre zu stellen. Johannes Konert stellt in einem eingeladenen Vortrag zwei Projekte vor, die den Prozess beginnend bei der Definition von Kompetenzen, deren Modellierung in einem semantischen maschinenlesbaren Format bis hin zur Erarbeitung von Methoden zur Kompetenzmessung und der elektronischen Zertifizierung aufzeigen. Dabei geht er auf technische Möglichkeiten, aber auch Grenzen ein. Auf einer spezifischeren Ebene beschäftigt sich Sarah Stumpf mit digitalen bzw. mediendidaktischen Kompetenzen im Lehramtsstudium und stellt ein Framework für die Förderung ebensolcher Kompetenzen bei angehenden Lehrkräften vor. Der Einsatz von E-Learning birgt noch einige Herausforderungen. Dabei geht es oft um die Verbindung von Didaktik und Technik, den Erhalt von Aufmerksamkeit oder den Aufwand für das Erstellen von interaktiven Lehr- und Lerninhalten. Drei Beiträge in diesem Tagungsband beschäftigen sich mit dieser Thematik in unterschiedlichen Kontexten und zeigen Best-Practices und Lösungsansätze auf: Der Beitrag von Martina Wahl und Michael Hölscher behandelt den besonderen Kontext von Blended Learning-Szenarien in berufsbegleitenden Studiengängen. Um die Veröffentlichung eines global frei verfügbaren Onlinekurses abseits der großen MOOC Plattformen und den didaktischen Herausforderungen auch hinsichtlich der Motivation geht es im Beitrag von Ennio Marani und Isabel Jaisli. Schließlich schlagen Gregor Damnik et al. die automatische Erzeugung von Aufgaben zur Erhöhung von Interaktivität und Adaptivität in digitalen Lernressourcen vor, um den teilweise erheblichen Erstellungsaufwand zu reduzieren. Zum Thema E-Learning zählen auch immer mobile Apps bzw. Spiele. Gleich zwei Beiträge beschäftigen sich mit dem Einsatz von E-Learning-Tools im Gesundheitskontext: Anna Tscherejkina und Anna Morgiel stellen in ihrem Beitrag Minispiele zum Training von sozio-emotionalen Kompetenzen für Menschen mit Autismus vor, und Stephanie Herbstreit et al. berichten vom Einsatz einer mobilen Lern-App zur Verbesserung von klinisch-praktischem Unterricht. KW - E-Learning KW - Onlinelehre KW - Game-based learning KW - Mobiles Lernen Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-420711 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - CHAP A1 - Seegerer, Stefan A1 - Romeike, Ralf A1 - Tillmann, Alexander A1 - Krömker, Detlef A1 - Horn, Florian A1 - Gattinger, Thorsten A1 - Weicker, Karsten A1 - Schmitz, Dennis A1 - Moldt, Daniel A1 - Röpke, René A1 - Larisch, Kathrin A1 - Schroeder, Ulrik A1 - Keverpütz, Claudia A1 - Küppers, Bastian A1 - Striewe, Michael A1 - Kramer, Matthias A1 - Grillenberger, Andreas A1 - Frede, Christiane A1 - Knobelsdorf, Maria A1 - Greven, Christoph ED - Bergner, Nadine ED - Röpke, René ED - Schroeder, Ulrik ED - Krömker, Detlef T1 - Hochschuldidaktik der Informatik HDI 2018 BT - 8. Fachtagung des GI-Fachbereichs Informatik und Ausbildung/Didaktik der Informatik ; 12.-13. September 2018 an der Goethe-Universität Frankfurt am Main T2 - Commentarii informaticae didacticae (CID) N2 - Die 8. Fachtagung für Hochschuldidaktik der Informatik (HDI) fand im September 2018 zusammen mit der Deutschen E-Learning Fachtagung Informatik (DeLFI) unter dem gemeinsamen Motto „Digitalisierungswahnsinn? - Wege der Bildungstransformationen“ in Frankfurt statt. Dabei widmet sich die HDI allen Fragen der informatischen Bildung im Hochschulbereich. Schwerpunkte bildeten in diesem Jahr u. a.: - Analyse der Inhalte und anzustrebenden Kompetenzen in Informatikveranstaltungen - Programmieren lernen & Einstieg in Softwareentwicklung - Spezialthemen: Data Science, Theoretische Informatik und Wissenschaftliches Arbeiten Die Fachtagung widmet sich ausgewählten Fragestellungen dieser Themenkomplexe, die durch Vorträge ausgewiesener Experten und durch eingereichte Beiträge intensiv behandelt werden. T3 - Commentarii informaticae didacticae (CID) - 12 Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-413542 SN - 978-3-86956-435-7 SN - 1868-0844 SN - 2191-1940 IS - 12 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Li, Yuanqing A1 - Chen, Li A1 - Nofal, Issam A1 - Chen, Mo A1 - Wang, Haibin A1 - Liu, Rui A1 - Chen, Qingyu A1 - Krstić, Miloš A1 - Shi, Shuting A1 - Guo, Gang A1 - Baeg, Sang H. A1 - Wen, Shi-Jie A1 - Wong, Richard T1 - Modeling and analysis of single-event transient sensitivity of a 65 nm clock tree JF - Microelectronics reliability N2 - The soft error rate (SER) due to heavy-ion irradiation of a clock tree is investigated in this paper. A method for clock tree SER prediction is developed, which employs a dedicated soft error analysis tool to characterize the single-event transient (SET) sensitivities of clock inverters and other commercial tools to calculate the SER through fault-injection simulations. A test circuit including a flip-flop chain and clock tree in a 65 nm CMOS technology is developed through the automatic ASIC design flow. This circuit is analyzed with the developed method to calculate its clock tree SER. In addition, this circuit is implemented in a 65 nm test chip and irradiated by heavy ions to measure its SER resulting from the SETs in the clock tree. The experimental and calculation results of this case study present good correlation, which verifies the effectiveness of the developed method. KW - Clock tree KW - Modeling KW - Single-event transient (SET) Y1 - 2018 U6 - https://doi.org/10.1016/j.microrel.2018.05.016 SN - 0026-2714 VL - 87 SP - 24 EP - 32 PB - Elsevier CY - Oxford ER - TY - GEN A1 - Krstić, Miloš A1 - Jentzsch, Anne-Kristin T1 - Reliability, safety and security of the electronics in automated driving vehicles - joint lab lecturing approach T2 - 2018 12TH European Workshop on Microelectronics Education (EWME) N2 - This paper proposes an education approach for master and bachelor students to enhance their skills in the area of reliability, safety and security of the electronic components in automated driving. The approach is based on the active synergetic work of research institutes, academia and industry in the frame of joint lab. As an example, the jointly organized summer school with the respective focus is organized and elaborated. KW - reliability KW - safety KW - security KW - automated driving KW - joint lab Y1 - 2018 SN - 978-1-5386-1157-9 SP - 21 EP - 22 PB - IEEE CY - New York ER - TY - JOUR A1 - Baedke, Jan A1 - Schöttler, Tobias T1 - Visual Metaphors in the Sciences BT - the Case of Epigenetic Landscape Images JF - Journal for General Philosophy of Science N2 - Recent philosophical analyses of the epistemic dimension of images in the sciences show a certain trend in acknowledging potential roles of these images beyond their merely decorative or pedagogical functions. We argue, however, that this new debate has yet paid little attention to a special type of pictures, we call ‘visual metaphor’, and its versatile heuristic potential in organizing data, supporting communication, and guiding research, modeling, and theory formation. Based on a case study of Conrad Hal Waddington’s epigenetic landscape images in biology, we develop a descriptive framework applicable to heuristic roles of various visual metaphors in the sciences. KW - Conrad Hal Waddington KW - Epigenetic landscape KW - Modelling KW - Scientific images KW - Theory formation KW - Visual metaphor Y1 - 2017 U6 - https://doi.org/10.1007/s10838-016-9353-9 SN - 0925-4560 SN - 1572-8587 VL - 48 SP - 173 EP - 194 PB - Springer CY - Dordrecht ER - TY - GEN A1 - Giese, Holger ED - Kouchnarenko, Olga ED - Khosravi, Ramtin T1 - Formal models and analysis for self-adaptive cyber-physical systems BT - (extended abstract) T2 - Lecture notes in computer science N2 - In this extended abstract, we will analyze the current challenges for the envisioned Self-Adaptive CPS. In addition, we will outline our results to approach these challenges with SMARTSOS [10] a generic approach based on extensions of graph transformation systems employing open and adaptive collaborations and models at runtime for trustworthy self-adaptation, self-organization, and evolution of the individual systems and the system-of-systems level taking the independent development, operation, management, and evolution of these systems into account. Y1 - 2017 SN - 978-3-319-57666-4 SN - 978-3-319-57665-7 U6 - https://doi.org/10.1007/978-3-319-57666-4_1 SN - 0302-9743 SN - 1611-3349 VL - 10231 SP - 3 EP - 9 PB - Springer CY - Cham ER - TY - GEN A1 - Saint-Dizier, Patrick A1 - Stede, Manfred T1 - Foundations of the language of argumentation T2 - Argument & computation Y1 - 2017 U6 - https://doi.org/10.3233/AAC-170018 SN - 1946-2166 SN - 1946-2174 VL - 8 IS - 2 Special issue SP - 91 EP - 93 PB - IOS Press CY - Amsterdam ER - TY - GEN A1 - Fabian, Benjamin A1 - Baumann, Annika A1 - Ehlert, Mathias A1 - Ververis, Vasilis A1 - Ermakova, Tatiana T1 - CORIA - Analyzing internet connectivity risks using network graphs T2 - 2017 IEEE International Conference on Communications (ICC) N2 - The Internet can be considered as the most important infrastructure for modern society and businesses. A loss of Internet connectivity has strong negative financial impacts for businesses and economies. Therefore, assessing Internet connectivity, in particular beyond their own premises and area of direct control, is of growing importance in the face of potential failures, accidents, and malicious attacks. This paper presents CORIA, a software framework for an easy analysis of connectivity risks based on large network graphs. It provides researchers, risk analysts, network managers and security consultants with a tool to assess an organization's connectivity and paths options through the Internet backbone, including a user-friendly and insightful visual representation of results. CORIA is flexibly extensible in terms of novel data sets, graph metrics, and risk scores that enable further use cases. The performance of CORIA is evaluated by several experiments on the Internet graph and further randomly generated networks. KW - risk analysis KW - connectivity KW - graph analysis KW - complex networks KW - Internet Y1 - 2017 SN - 978-1-4673-8999-0 SN - 978-1-4673-9000-2 U6 - https://doi.org/10.1109/ICC.2017.7996828 SN - 1550-3607 PB - IEEE CY - Piscataway ER - TY - GEN A1 - Mühlbauer, Felix A1 - Schröder, Lukas A1 - Schölzel, Mario T1 - On hardware-based fault-handling in dynamically scheduled processors T2 - 20th International Symposium on Design and Diagnostics of Electronic Circuits & Systems (DDECS) 2017 N2 - This paper describes architectural extensions for a dynamically scheduled processor, so that it can be used in three different operation modes, ranging from high-performance, to high-reliability. With minor hardware-extensions of the control path, the resources of the superscalar data-path can be used either for high-performance execution, fail-safe-operation, or fault-tolerant-operation. This makes the processor-architecture a very good candidate for applications with dynamically changing reliability requirements, e.g. for automotive applications. The paper reports the hardware-overhead for the extensions, and investigates the performance penalties introduced by the fail-safe and fault-tolerant mode. Furthermore, a comprehensive fault simulation was carried out in order to investigate the fault-coverage of the proposed approach. Y1 - 2017 SN - 978-1-5386-0472-4 U6 - https://doi.org/10.1109/DDECS.2017.7934572 SN - 2334-3133 SN - 2473-2117 SP - 201 EP - 206 PB - IEEE CY - New York ER - TY - GEN A1 - Mühlbauer, Felix A1 - Schröder, Lukas A1 - Skoncej, Patryk A1 - Schölzel, Mario T1 - Handling manufacturing and aging faults with software-based techniques in tiny embedded systems T2 - 18th IEEE Latin American Test Symposium (LATS 2017) N2 - Non-volatile memory area occupies a large portion of the area of a chip in an embedded system. Such memories are prone to manufacturing faults, retention faults, and aging faults. The paper presents a single software based technique that allows for handling all of these fault types in tiny embedded systems without the need for hardware support. This is beneficial for low-cost embedded systems with simple memory architectures. A software infrastructure and a flow are presented that demonstrate how the presented technique is used in general for fault handling right after manufacturing and in-the-field. Moreover, a full implementation is presented for a MSP430 microcontroller, along with a discussion of the performance, overhead, and reliability impacts. Y1 - 2027 SN - 978-1-5386-0415-1 U6 - https://doi.org/10.1109/LATW.2017.7906756 PB - IEEE CY - New York ER - TY - THES A1 - Schumacher, Kinga T1 - Hybride semantische Suche - eine Kombination aus Fakten- und Dokumentretrieval T1 - Hybrid semantic search - a combination of fact and document retrieval N2 - Das Thema der vorliegenden Arbeit ist die semantische Suche im Kontext heutiger Informationsmanagementsysteme. Zu diesen Systemen zählen Intranets, Web 3.0-Anwendungen sowie viele Webportale, die Informationen in heterogenen Formaten und Strukturen beinhalten. Auf diesen befinden sich einerseits Daten in strukturierter Form und andererseits Dokumente, die inhaltlich mit diesen Daten in Beziehung stehen. Diese Dokumente sind jedoch in der Regel nur teilweise strukturiert oder vollständig unstrukturiert. So beschreiben beispielsweise Reiseportale durch strukturierte Daten den Zeitraum, das Reiseziel, den Preis einer Reise und geben in unstrukturierter Form weitere Informationen, wie Beschreibungen zum Hotel, Zielort, Ausflugsziele an. Der Fokus heutiger semantischer Suchmaschinen liegt auf dem Finden von Wissen entweder in strukturierter Form, auch Faktensuche genannt, oder in semi- bzw. unstrukturierter Form, was üblicherweise als semantische Dokumentensuche bezeichnet wird. Einige wenige Suchmaschinen versuchen die Lücke zwischen diesen beiden Ansätzen zu schließen. Diese durchsuchen zwar gleichzeitig strukturierte sowie unstrukturierte Daten, werten diese jedoch entweder weitgehend voneinander unabhängig aus oder schränken die Suchmöglichkeiten stark ein, indem sie beispielsweise nur bestimmte Fragemuster unterstützen. Hierdurch werden die im System verfügbaren Informationen nicht ausgeschöpft und gleichzeitig unterbunden, dass Zusammenhänge zwischen einzelnen Inhalten der jeweiligen Informationssysteme und sich ergänzende Informationen den Benutzer erreichen.
 Um diese Lücke zu schließen, wurde in der vorliegenden Arbeit ein neuer hybrider semantischer Suchansatz entwickelt und untersucht, der strukturierte und semi- bzw. unstrukturierte Inhalte während des gesamten Suchprozesses kombiniert. Durch diesen Ansatz werden nicht nur sowohl Fakten als auch Dokumente gefunden, es werden auch Zusammenhänge, die zwischen den unterschiedlich strukturierten Daten bestehen, in jeder Phase der Suche genutzt und fließen in die Suchergebnisse mit ein. Liegt die Antwort zu einer Suchanfrage nicht vollständig strukturiert, in Form von Fakten, oder unstrukturiert, in Form von Dokumenten vor, so liefert dieser Ansatz eine Kombination der beiden. Die Berücksichtigung von unterschiedlich Inhalten während des gesamten Suchprozesses stellt jedoch besondere Herausforderungen an die Suchmaschine. Diese muss in der Lage sein, Fakten und Dokumente in Abhängigkeit voneinander zu durchsuchen, sie zu kombinieren sowie die unterschiedlich strukturierten Ergebnisse in eine geeignete Rangordnung zu bringen. Weiterhin darf die Komplexität der Daten nicht an die Endnutzer weitergereicht werden. Die Darstellung der Inhalte muss vielmehr sowohl bei der Anfragestellung als auch bei der Darbietung der Ergebnisse verständlich und leicht interpretierbar sein. Die zentrale Fragestellung der Arbeit ist, ob ein hybrider Ansatz auf einer vorgegebenen Datenbasis die Suchanfragen besser beantworten kann als die semantische Dokumentensuche und die Faktensuche für sich genommen, bzw. als eine Suche die diese Ansätze im Rahmen des Suchprozesses nicht kombiniert. Die durchgeführten Evaluierungen aus System- und aus Benutzersicht zeigen, dass die im Rahmen der Arbeit entwickelte hybride semantische Suchlösung durch die Kombination von strukturierten und unstrukturierten Inhalten im Suchprozess bessere Antworten liefert als die oben genannten Verfahren und somit Vorteile gegenüber bisherigen Ansätzen bietet. Eine Befragung von Benutzern macht deutlich, dass die hybride semantische Suche als verständlich empfunden und für heterogen strukturierte Datenmengen bevorzugt wird. N2 - The subject of this doctoral thesis is semantic search in the context of today's information management systems. These systems include intranets and Web 3.0 applications, as well as many web portals that contain information in heterogeneous formats and structures. On the one hand, they contain data in a structured form, and on the other hand they contain documents that are related to this data. However, these documents are usually only partially structured or completely unstructured. For example, travel portals describe the period, the destination, the cost of the travel through structured data, while additional information, such as descriptions of the hotel, destination, excursions, etc. is in unstructured form. 
The focus of today's semantic search engines is to find knowledge either in a structured form (also called fact retrieval), or in semi- or un-structured form, which is commonly referred to as semantic document retrieval. Only a few search engines are trying to close the gap between these two approaches. Although they search simultaneously for structured and unstructured data, the results are either analyzed independently, or the search possibilities are highly limited: for example, they might support only specific question patterns. Accordingly, the information available in the system is not exploited, and, simultaneously, the relationships between individual pieces of content in the respective information systems and complementary information cannot reach the user. In order to close this gap, this thesis develops and evaluates a new hybrid semantic search approach that combines structured and semi- or un-structured content throughout the entire search process. This approach not only finds facts and documents, it uses also relationships that exist between the different items of structured data at every stage of the search, and integrates them into the search results. If the answer to a query is not completely structured (like a fact), or unstructured (like a document), this approach provides a query-specific combination of both. However, consideration of structured as well as semi- or un-structured content by the information system throughout the entire search process poses a special challenge to the search engine. This engine must be able to browse facts and documents independently, to combine them, and to rank the differently structured results in an appropriate order. Furthermore, the complexity of the data should not be apparent to the end user. Rather, the presentation of the contents must be understandable and easy to interpret, both in the query request and the presentation of results. The central question of this thesis is whether a hybrid approach can answer the queries on a given database better than a semantic document search or fact-finding alone, or any other hybrid search that does not combine these approaches during the search process. The evaluations from the perspective of the system and users show that the hybrid semantic search solution developed in this thesis provides better answers than the methods above by combining structured and unstructured content in the search process, and therefore gives an advantage over previous approaches. A survey of users shows that the hybrid semantic search is perceived as understandable and preferable for heterogeneously structured datasets. KW - semantische Suche KW - hybride semantische Suche KW - Methoden der semantischen Suche KW - Evaluierung semantischer Suchmaschinen KW - semantisches Ranking KW - information retrieval KW - semantic search KW - hybrid semantic search KW - semantic search methods KW - semantic search evaluation KW - semantic ranking Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-405973 ER - TY - CHAP A1 - Kiy, Alexander A1 - Hofhues, Sandra ED - Bücker, Diana ED - Lucke, Ulrike ED - Hofhues, Sandra ED - Dander, Valentin ED - Rau, Franco ED - Rohland, Holger ED - Van Treeck, Timo T1 - Persönliche Lernumgebungen im Spannungsfeld der institutionalisierten Lehre der Hochschule BT - Designprinzipien für eine hybride PLE. T2 - "Trendy, hip und cool". Auf dem Weg zu einer innovativen Hochschule? N2 - Die zunehmende Digitalisierung des Lebens hält in vielen Bereichen Einzug. Im Sinne der Forderung nach lebenslangem Lernen und mit dem Ziel den vielfältigen sich ändernden Anforderungen des täglichen Lebens erfolgreich zu begegnen, bedarf es der Schaffung einer individuellen und persönlichen Lernumgebung jedes Einzelnen. Dieser Beitrag setzt sich zunächst kritisch mit dem Begriff der persönlichen Lernumgebung auseinander. Darauf aufbauend wird der Betrachtungsrahmen auf die Verwendung innerhalb der Institution Hochschule eingeengt. Hieraus erwachsen sowohl Herausforderungen als auch Divergenzen im Spannungsfeld zwischen institutioneller und persönlicher Lernumgebung, die innerhalb eines offenen Gestaltungsprozesses zu lösen sind, sodass sich allgemeingültige Designprinzipien institutioneller persönlicher Lernumgebungen ableiten lassen. KW - Multimedia KW - Lehre KW - Kommunismus KW - Internet KW - Deutschland Y1 - 2017 SN - 978-3-7639-5790-3 U6 - https://doi.org/10.3278/6004551w SP - 117 EP - 126 PB - Bertelsmann CY - Bielefeld ER - TY - THES A1 - Felgentreff, Tim T1 - The Design and Implementation of Object-Constraint Programming Y1 - 2017 ER - TY - CHAP A1 - Kiy, Alexander A1 - List, Christoph A1 - Lucke, Ulrike T1 - A virtual environment and infrastructure to ensure future readiness of Computer Centers T2 - European Journal of Higher Education IT N2 - The ongoing digitalization leads to a need of continuous change of ICT (Information and Communi-cation Technology) in all university domains and therefore affects all stakeholders in this arena. More and more ICT components, systems and tools occur and have to be integrated into the existing processes and infrastructure of the institutions. These tasks include the transfer of resources and information across multiple ICT systems. By using so-called virtual environments for domains of re-search, education, learning and work, the performance of daily tasks can be aided. Based on a user requirement analysis different short- and long-term objectives were identified and are tackled now in the context of a federal research project. In order to be prepared for the ongoing digitalization, new systems have to be provided. Both, a service-oriented infrastructure and a related web-based virtual learning environment constitute the platform Campus.UP and creates the necessary basis to be ready for future challenges. The current focus lies on e-portfolio work, hence we will present a related focus group evaluation. The results indicate a tremendous need to extend the possibilities of sharing resources across system boundaries, in order to enable a comfortable participation of exter-nal cooperating parties and to clarify the focus of each connected system. The introduction of such an infrastructure implies far-reaching changes for traditional data centers. Therefore, the challenges and risks of faculty conducting innovation projects for the ICT organization are taken as a starting point to stimulate a discussion, how data centers can utilize projects to be ready for the future needs. We are confident that Campus.UP will provide the basis for ensuring the persistent transfer of innovation to the ICT organization and thus will contribute to tackle the future challenges of digitalization. Y1 - 2017 UR - http://www.eunis.org/erai/2017-1/ SN - 2519-1764 VL - 2017 IS - 1 ER - TY - JOUR A1 - Gebser, Martin A1 - Maratea, Marco A1 - Ricca, Francesco T1 - The sixth answer set programming competition JF - Journal of artificial intelligence research : JAIR N2 - Answer Set Programming (ASP) is a well-known paradigm of declarative programming with roots in logic programming and non-monotonic reasoning. Similar to other closely related problemsolving technologies, such as SAT/SMT, QBF, Planning and Scheduling, advancements in ASP solving are assessed in competition events. In this paper, we report about the design and results of the Sixth ASP Competition, which was jointly organized by the University of Calabria (Italy), Aalto University (Finland), and the University of Genoa (Italy), in affiliation with the 13th International Conference on Logic Programming and Non-Monotonic Reasoning. This edition maintained some of the design decisions introduced in 2014, e.g., the conception of sub-tracks, the scoring scheme,and the adherence to a fixed modeling language in order to push the adoption of the ASP-Core-2 standard. On the other hand, it featured also some novelties, like a benchmark selection stage classifying instances according to their empirical hardness, and a “Marathon” track where the topperforming systems are given more time for solving hard benchmarks. Y1 - 2017 U6 - https://doi.org/10.1613/jair.5373 SN - 1076-9757 SN - 1943-5037 VL - 60 SP - 41 EP - 95 PB - AI Access Found. CY - Marina del Rey ER - TY - JOUR A1 - Lindauer, Marius A1 - Hoos, Holger A1 - Leyton-Brown, Kevin A1 - Schaub, Torsten H. T1 - Automatic construction of parallel portfolios via algorithm configuration JF - Artificial intelligence N2 - Since 2004, increases in computational power described by Moore's law have substantially been realized in the form of additional cores rather than through faster clock speeds. To make effective use of modern hardware when solving hard computational problems, it is therefore necessary to employ parallel solution strategies. In this work, we demonstrate how effective parallel solvers for propositional satisfiability (SAT), one of the most widely studied NP-complete problems, can be produced automatically from any existing sequential, highly parametric SAT solver. Our Automatic Construction of Parallel Portfolios (ACPP) approach uses an automatic algorithm configuration procedure to identify a set of configurations that perform well when executed in parallel. Applied to two prominent SAT solvers, Lingeling and clasp, our ACPP procedure identified 8-core solvers that significantly outperformed their sequential counterparts on a diverse set of instances from the application and hard combinatorial category of the 2012 SAT Challenge. We further extended our ACPP approach to produce parallel portfolio solvers consisting of several different solvers by combining their configuration spaces. Applied to the component solvers of the 2012 SAT Challenge gold medal winning SAT Solver pfolioUZK, our ACPP procedures produced a significantly better-performing parallel SAT solver. KW - Algorithm configuration KW - Parallel SAT solving KW - Algorithm portfolios KW - Programming by optimization KW - Automated parallelization Y1 - 2016 U6 - https://doi.org/10.1016/j.artint.2016.05.004 SN - 0004-3702 SN - 1872-7921 VL - 244 SP - 272 EP - 290 PB - Elsevier CY - Amsterdam ER - TY - THES A1 - Christgau, Steffen T1 - One-sided communication on a non-cache-coherent many-core architecture T1 - Einseitige Kommunikation auf einer nicht-cache-kohärenten Vielkern-Prozessorarchitektur N2 - Aktuelle Mehrkernprozessoren stellen parallele Systeme dar, die den darauf ausgeführten Programmen gemeinsamen Speicher zur Verfügung stellen. Sowohl die ansteigende Kernanzahlen in sogenannten Vielkernprozessoren (many-core processors) als auch die weiterhin steigende Leistungsfähigkeit der einzelnen Kerne erfordert hohe Bandbreiten, die das Speichersystem des Prozessors liefern muss. Hardware-basierte Cache-Kohärenz stößt in aktuellen Vielkernprozessoren an Grenzen des praktisch Machbaren. Dementsprechend müssen alternative Architekturen und entsprechend geeignete Programmiermodelle untersucht werden. In dieser Arbeit wird der Single-Chip Cloud Computer (SCC), ein nicht-cachekohärenter Vielkernprozessor betrachtet, der aus 48, über ein Gitternetzwerk verbundenen Kernen besteht. Obwohl der Prozessor für nachrichten-basierte Kommunikation entwickelt worden ist, zeigen die Ergebnisse dieser Arbeit, dass einseitige Kommunikation auf Basis gemeinsamen Speichers effizient auf diesem Architekturtyp realisiert werden kann. Einseitige Kommunikation ermöglicht Datenaustausch zwischen Prozessen, bei der der Empfänger keine Details über die stattfindende Kommunikation besitzen muss. Im Sinne des MPI-Standards ist so ein Zugriff auf Speicher entfernter Prozesse möglich. Zur Umsetzung dieses Konzepts auf nicht-kohärenten Architekturen werden in dieser Arbeit sowohl eine effiziente Prozesssynchronisation als auch ein Kommunikationsschema auf Basis von software-basierter Cache-Kohärenz erarbeitet und untersucht. Die Prozesssynchronisation setzt das Konzept der general active target synchronization aus dem MPI-Standard um. Ein existierendes Klassifikationsschema für dessen Implementierungen wird erweitert und zur Identifikation einer geeigneten Klasse für die nicht-kohärente Plattform des SCC verwendet. Auf Grundlage der Klassifikation werden existierende Implementierungen analysiert, daraus geeignete Konzepte extrahiert und ein leichtgewichtiges Synchronisationsprotokoll für den SCC entwickelt, das sowohl gemeinsamen Speicher als auch ungecachete Speicherzugriffe verwendet. Das vorgestellte Schema ist nicht anfällig für Verzögerungen zwischen Prozessen und erlaubt direkte Kommunikation sobald beide Kommunikationspartner dafür bereit sind. Die experimentellen Ergebnisse zeigen ein sehr gutes Skaliserungsverhalten und eine fünffach geringere Latenz für die Prozesssynchronisation im Vergleich zu einer auf Nachrichten basierenden MPI-Implementierung des SCC. Für die Kommunikation wird mit SCOSCo ein auf gemeinsamen Speicher und software-basierter Cache-Kohärenz basierenden Konzept vorgestellt. Entsprechende Anforderungen an die Kohärenz, die dem MPI-Standard entsprechen, werden aufgestellt und eine schlanke Implementierung auf Basis der Hard- und Software-Funktionalitäten des SCCs entwickelt. Trotz einer aufgedecktem Fehlfunktion im Speichersubsystem des SCC kann in den experimentellen Auswertungen von Mikrobenchmarks eine fünffach verbesserte Bandbreite und eine nahezu vierfach verringerte Latenz beobachtet werden. In Anwendungsexperimenten, wie einer dreidimensionalen schnellen Fourier-Transformation, kann der Anteil der Kommunikation an der Laufzeit um den Faktor fünf reduziert werden. In Ergänzung dazu werden in dieser Arbeit Konzepte aufgestellt, die in zukünftigen Architekturen, die Cache-Kohärenz nicht auf einer globalen Ebene des Prozessors liefern können, für die Umsetzung von Software-basierter Kohärenz für einseitige Kommunikation hilfreich sind. N2 - Contemporary multi-core processors are parallel systems that also provide shared memory for programs running on them. Both the increasing number of cores in so-called many-core systems and the still growing computational power of the cores demand for memory systems that are able to deliver high bandwidths. Caches are essential components to satisfy this requirement. Nevertheless, hardware-based cache coherence in many-core chips faces practical limits to provide both coherence and high memory bandwidths. In addition, a shift away from global coherence can be observed. As a result, alternative architectures and suitable programming models need to be investigated. This thesis focuses on fast communication for non-cache-coherent many-core architectures. Experiments are conducted on the Single-Chip Cloud Computer (SCC), a non-cache-coherent many-core processor with 48 mesh-connected cores. Although originally designed for message passing, the results of this thesis show that shared memory can be efficiently used for one-sided communication on this kind of architecture. One-sided communication enables data exchanges between processes where the receiver is not required to know the details of the performed communication. In the notion of the Message Passing Interface (MPI) standard, this type of communication allows to access memory of remote processes. In order to support this communication scheme on non-cache-coherent architectures, both an efficient process synchronization and a communication scheme with software-managed cache coherence are designed and investigated. The process synchronization realizes the concept of the general active target synchronization scheme from the MPI standard. An existing classification of implementation approaches is extended and used to identify an appropriate class for the non-cache-coherent shared memory platform. Based on this classification, existing implementations are surveyed in order to find beneficial concepts, which are then used to design a lightweight synchronization protocol for the SCC that uses shared memory and uncached memory accesses. The proposed scheme is not prone to process skew and also enables direct communication as soon as both communication partners are ready. Experimental results show very good scaling properties and up to five times lower synchronization latency compared to a tuned message-based MPI implementation for the SCC. For the communication, SCOSCo, a shared memory approach with software-managed cache coherence, is presented. According requirements for the coherence that fulfill MPI's separate memory model are formulated, and a lightweight implementation exploiting SCC hard- and software features is developed. Despite a discovered malfunction in the SCC's memory subsystem, the experimental evaluation of the design reveals up to five times better bandwidths and nearly four times lower latencies in micro-benchmarks compared to the SCC-tuned but message-based MPI library. For application benchmarks, like a parallel 3D fast Fourier transform, the runtime share of communication can be reduced by a factor of up to five. In addition, this thesis postulates beneficial hardware concepts that would support software-managed coherence for one-sided communication on future non-cache-coherent architectures where coherence might be only available in local subdomains but not on a global processor level. KW - parallel programming KW - middleware KW - Message Passing Interface KW - one-sided communication KW - software-based cache coherence KW - process synchronization KW - parallele Programmierung KW - einseitige Kommunikation KW - Software-basierte Cache-Kohärenz KW - Prozesssynchronisierung KW - Message Passing Interface KW - Middleware Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403100 ER - TY - THES A1 - Kiertscher, Simon T1 - Energieeffizientes Clustermanagement im Server-Load-Balacing-Bereich, am Fallbeispiel eines Apache-Webserver-Clusters Y1 - 2017 ER - TY - THES A1 - Lass, Sander T1 - Simulationskonzept zur Nutzenvalidierung cyber-physischer Systeme in komplexen Fabrikumgebungen Y1 - 2017 ER - TY - THES A1 - Al-Areqi, Samih Taha Mohammed T1 - Semantics-based automatic geospatial service composition T1 - Semantikbasierte automatische Komposition von GIS-Diensten N2 - Although it has become common practice to build applications based on the reuse of existing components or services, technical complexity and semantic challenges constitute barriers to ensuring a successful and wide reuse of components and services. In the geospatial application domain, the barriers are self-evident due to heterogeneous geographic data, a lack of interoperability and complex analysis processes. Constructing workflows manually and discovering proper services and data that match user intents and preferences is difficult and time-consuming especially for users who are not trained in software development. Furthermore, considering the multi-objective nature of environmental modeling for the assessment of climate change impacts and the various types of geospatial data (e.g., formats, scales, and georeferencing systems) increases the complexity challenges. Automatic service composition approaches that provide semantics-based assistance in the process of workflow design have proven to be a solution to overcome these challenges and have become a frequent demand especially by end users who are not IT experts. In this light, the major contributions of this thesis are: (i) Simplification of service reuse and workflow design of applications for climate impact analysis by following the eXtreme Model-Driven Development (XMDD) paradigm. (ii) Design of a semantic domain model for climate impact analysis applications that comprises specifically designed services, ontologies that provide domain-specific vocabulary for referring to types and services, and the input/output annotation of the services using the terms defined in the ontologies. (iii) Application of a constraint-driven method for the automatic composition of workflows for analyzing the impacts of sea-level rise. The application scenario demonstrates the impact of domain modeling decisions on the results and the performance of the synthesis algorithm. N2 - Obwohl es gängige Praxis geworden ist, Anwendungen basierend auf der Wiederverwendung von existierenden Komponenten oder Diensten zu bauen, stellen technische Komplexität und semantische Herausforderungen Hindernisse beim Sicherstellen einer erfolgreichen und breiten Wiederverwendungen von Komponenten und Diensten. In der geowissenschaftlichen Anwendungsdomäne sind die Hindernisse durch heterogene geografische Daten, fehlende Interoperabilität und komplexe Analyseprozessen besonders offensichtlich. Workflows manuell zu konstruieren und passende Dienste und Daten zu finden, welche die Nutzerabsichten und -präferenzen abdecken, ist schwierig und zeitaufwändig besonders für Nutzer, die nicht in der Softwareentwicklung ausgebildet sind. Zudem erhöhen die verschiedenen Zielrichtungen der Umweltmodellierung für die Bewertung der Auswirkungen von Klimaänderungen und die unterschiedlichen Typen geografischer Daten (z.B. Formate, Skalierungen, und Georeferenzsysteme) die Komplexität. Automatische Dienstkompositionsansätze, die Semantik-basierte Unterstützung im Prozess des Workflowdesigns zur Verfügung stellen, haben bewiesen eine Lösung zur Bewältigung dieser Herausforderungen zu sein und sind besonders von Endnutzern, die keine IT-Experten sind, eine häufige Forderung geworden. Unter diesem Gesichtspunkt sind die Hauptbeiträge dieser Doktorarbeit: I. Vereinfachung der Wiederverwendung von Diensten und des Workflowdesigns von Klimafolgenanalysen durch Anwendung des Paradigma des eXtreme Model-Driven Development (XMDD) II. Design eines semantischen Domänenmodells für Anwendungen der Klimafolgenanalysen, welches speziell entwickelte Dienste, Ontologien (die domänen-spezifisches Vokabular zur Verfügung stellen, um Typen und Dienste zu beschreiben), und Eingabe-/Ausgabe-Annotationen der Dienste (unter Verwendung von Begriffen, die in den Ontologien definiert sind) enthält. III. Anwendungen einer Constraint-getriebenen Methode für die automatische Komposition von Workflows zum Analysieren der Auswirkungen des Meeresspiegelanstiegs. Das Anwendungsszenario demonstriert die Auswirkung von Domänenmodellierungsentscheidungen auf die Ergebnisse und die Laufzeit des Synthesealgorithmus. KW - geospatial services KW - service composition KW - scientific workflows KW - semantic domain modeling KW - ontologies KW - climate impact analysis KW - GIS-Dienstkomposition KW - Wissenschaftlichesworkflows KW - semantische Domänenmodellierung KW - Ontologien KW - Klimafolgenanalyse Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-402616 ER - TY - JOUR A1 - Bailis, Peter A1 - Dillahunt, Tawanna A1 - Müller, Stefanie A1 - Baudisch, Patrick T1 - Research for Practice: Technology for Underserved Communities; Personal Fabrication JF - Communications of the ACM / Association for Computing Machinery N2 - THIS INSTALLMENT OF Research for Practice provides curated reading guides to technology for underserved communities and to new developments in personal fabrication. First, Tawanna Dillahunt describes design considerations and technology for underserved and impoverished communities. Designing for the more than 1.6 billion impoverished individuals worldwide requires special consideration of community needs, constraints, and context. Her selections span protocols for poor-quality communication networks, community-driven content generation, and resource and public service discovery. Second, Stefanie Mueller and Patrick Baudisch provide an overview of recent advances in personal fabrication (for example, 3D printers). Y1 - 2017 U6 - https://doi.org/10.1145/3080188 SN - 0001-0782 SN - 1557-7317 VL - 60 SP - 46 EP - 49 PB - Association for Computing Machinery CY - New York ER - TY - CHAP A1 - Kiy, Alexander A1 - Hafer, Jörg A1 - Schumann, Marlen A1 - Enke, Uta ED - Lucke, Ulrike ED - Schwill, Andreas ED - Zender, Raphael T1 - Digitale Teilnehmerzertifikate und Open Badges verbinden BT - Der E-Teaching-Badge T2 - DeLFI 2016 - Die 14. E-Learning Fachtagung Informatik 11.-14. September 2016 Potsdam N2 - Während Qualifikationen und Kompetenzen, die auf informellem Wege erworben werden, immer mehr Beachtung finden, stellt sowohl deren Darstellung als auch die Anerkennung ein meist unüberwindbares Hindernis für Ausstellende und Erwerbende dar. Vermehrt wird unterdessen von klassisch papiergebundenen auf digitale Teilnahmezertifikate umgestellt, um den Nachweis von Kompetenz- und Qualifikationserwerb zu vereinfachen. In diesem Zusammenhang kann die Verbindung von digitalen Teilnahmezertifikaten und Open Badges einen Mehrwert für die öffentliche Darstellung und Verifikation bieten. KW - Teilnehmerzertifikate KW - Peer-Review KW - Open Badges KW - Open Badge Infrastructure KW - OBI Y1 - 2016 UR - http://subs.emis.de/LNI/Proceedings/Proceedings262/article21.html SN - 978-3-88579-656-5 IS - P-262 SP - 285 EP - 287 PB - Gesellschaft für Informatik CY - Bonn ER - TY - CHAP A1 - Knoth, Alexander Henning A1 - Kiy, Alexander A1 - Müller, Ina T1 - Das erste Semester von Studierenden der Wirtschafts- und Sozialwissenschaften im Spiegel der Reflect-App T2 - DeLFI 2016 - Die 14. E-Learning Fachtagung Informatik 11.-14. September 2016 Potsdam N2 - Mobile Applikationen eignen sich als strukturelle Unterstützungsangebote für Studierende während des Studieneinstiegs. Durch die App Reflect.UP werden Studienorganisation, Studieninhalte und -ziele von Studierenden reflektiert. Der bewusste Umgang mit dem studentischen Kompetenzerwerb als wissenschaftliche eflexionskompetenz ist immanenter Bestandteil der akademischen Professionalisierung und steht in diesem Beitrag im Vordergrund. Gezeigt wird, wie aus Studienordnungen und Modulbeschreibungen systematisch Fragen zur studentischen Reflexion herausgearbeitet werden und dadurch ein Kompetenzraster entsteht. Die durch den praktischen Einsatz von Reflect.UP gewonnenen Daten werden ausgewertet und dahingehend diskutiert, welche Rückschlüsse sich hieraus auf die Problemlagen und Lernprozesse der Studierenden sowie für die Studiengangsorganisation(en) ziehen lassen. Darüber hinaus werden die Stärken und Schwächen einer mobilen Applikation als sozial- und informationswissenschaftliches Amalgam zur strukturellen Unterstützung der Studieneingangsphase reflektiert. KW - Studieneinstieg KW - Studienorganisation KW - App KW - Reflexion KW - Professionalisierung Y1 - 2016 UR - http://subs.emis.de/LNI/Proceedings/Proceedings262/article13.html SN - 978-3-88579-656-5 IS - P-262 SP - 59 EP - 70 PB - Gesellschaft für Informatik e.V. CY - Bonn ER - TY - THES A1 - Weidling, Stefan T1 - Neue Ansätze zur Verbesserung der Fehlertoleranz gegenüber transienten Fehlern in sequentiellen Schaltungen Y1 - 2016 ER - TY - THES A1 - Nieß, Günther T1 - Modellierung und Erkennung von technischen Fehlern mittels linearer und nichtlinearer Codes Y1 - 2016 ER - TY - THES A1 - Köhlmann, Wiebke T1 - Zugänglichkeit virtueller Klassenzimmer für Blinde N2 - E-Learning-Anwendungen bieten Chancen für die gesetzlich vorgeschriebene Inklusion von Lernenden mit Beeinträchtigungen. Die gleichberechtigte Teilhabe von blinden Lernenden an Veranstaltungen in virtuellen Klassenzimmern ist jedoch durch den synchronen, multimedialen Charakter und den hohen Informationsumfang dieser Lösungen kaum möglich. Die vorliegende Arbeit untersucht die Zugänglichkeit virtueller Klassenzimmer für blinde Nutzende, um eine möglichst gleichberechtigte Teilhabe an synchronen, kollaborativen Lernszenarien zu ermöglichen. Im Rahmen einer Produktanalyse werden dazu virtuelle Klassenzimmer auf ihre Zugänglichkeit und bestehende Barrieren untersucht und Richtlinien für die zugängliche Gestaltung von virtuellen Klassenzimmern definiert. Anschließend wird ein alternatives Benutzungskonzept zur Darstellung und Bedienung virtueller Klassenzimmer auf einem zweidimensionalen taktilen Braille-Display entwickelt, um eine möglichst gleichberechtigte Teilhabe blinder Lernender an synchronen Lehrveranstaltungen zu ermöglichen. Nach einer ersten Evaluation mit blinden Probanden erfolgt die prototypische Umsetzung des Benutzungskonzepts für ein Open-Source-Klassenzimmer. Die abschließende Evaluation der prototypischen Umsetzung zeigt die Verbesserung der Zugänglichkeit von virtuellen Klassenzimmern für blinde Lernende unter Verwendung eines taktilen Flächendisplays und bestätigt die Wirksamkeit der im Rahmen dieser Arbeit entwickelten Konzepte. Y1 - 2016 SN - 978-3-8325-4273-3 PB - Logos CY - Berlin ER - TY - JOUR A1 - Kujath, Bertold T1 - Lernwirksamkeits- und Zielgruppenanalyse für ein Lehrvideo zum informatischen Problemlösen JF - Commentarii informaticae didacticae (CID) N2 - Aus einer Vergleichsstudie mit starken und schwachen Problemlösern konnten Erkenntnisse über die effizienten Herangehensweisen von Hochleistern an Informatikprobleme gewonnen werden. Diese Erkenntnisse wurden in einem Lehrvideo zum informatischen Problemlösen didaktisch aufgearbeitet, sodass Lernenden der Einsatz von Baumstrukturen und Rekursion im konkreten Kontext gezeigt werden kann. Nun wurde die tatsächliche Lernwirksamkeit des Videos sowie die Definition der Zielgruppe in einer Vergleichsstudie mit 66 Studienanfängern überprüft. Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94797 SN - 978-3-86956-376-3 SN - 1868-0844 SN - 2191-1940 IS - 10 SP - 25 EP - 39 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Böhne, Sebastian A1 - Kreitz, Christoph A1 - Knobelsdorf, Maria T1 - Mathematisches Argumentieren und Beweisen mit dem Theorembeweiser Coq JF - Commentarii informaticae didacticae (CID) N2 - Informatik-Studierende haben in der Mehrzahl Schwierigkeiten, einen Einstieg in die Theoretische Informatik zu finden und die Leistungsanforderungen in den Endklausuren der zugehörigen Lehrveranstaltungen zu erfüllen. Wir argumentieren, dass dieser Symptomatik mangelnde Kompetenzen im Umgang mit abstrakten und stark formalisierten Themeninhalten zugrunde liegen und schlagen vor, einen Beweisassistenten als interaktives Lernwerkzeug in der Eingangslehre der Theoretischen Informatik zu nutzen, um entsprechende Kompetenzen zu stärken. Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94824 SN - 978-3-86956-376-3 SN - 1868-0844 SN - 2191-1940 IS - 10 SP - 69 EP - 80 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Al-Saffar, Loay Talib Ahmed T1 - Analysing prerequisites, expectations, apprehensions, and attitudes of University students studying computer science Y1 - 2016 ER - TY - THES A1 - Müller, Stephan Heinz T1 - Aggregates Caching for Enterprise Applications N2 - The introduction of columnar in-memory databases, along with hardware evolution, has made the execution of transactional and analytical enterprise application workloads on a single system both feasible and viable. Yet, we argue that executing analytical aggregate queries directly on the transactional data can decrease the overall system performance. Despite the aggregation capabilities of columnar in-memory databases, the direct access to records of a materialized aggregate is always more efficient than aggregating on the fly. The traditional approach to materialized aggregates, however, introduces significant overhead in terms of materialized view selection, maintenance, and exploitation. When this overhead is handled by the application, it increases the application complexity, and can slow down the transactional throughput of inserts, updates, and deletes. In this thesis, we motivate, propose, and evaluate the aggregate cache, a materialized aggregate engine in the main-delta architecture of a columnar in-memory database that provides efficient means to handle costly aggregate queries of enterprise applications. For our design, we leverage the specifics of the main-delta architecture that separates a table into a main and delta partition. The central concept is to only cache the partial aggregate query result as defined on the main partition of a table, because the main partition is relatively stable as records are only inserted into the delta partition. We contribute by proposing incremental aggregate maintenance and query compensation techniques for mixed workloads of enterprise applications. In addition, we introduce aggregate profit metrics that increase the likelihood of persisting the most profitable aggregates in the aggregate cache. Query compensation and maintenance of materialized aggregates based on joins of multiple tables is expensive due to the partitioned tables in the main-delta architecture. Our analysis of enterprise applications has revealed several data schema and workload patterns. This includes the observation that transactional data is persisted in header and item tables, whereas in many cases, the insertion of related header and item records is executed in a single database transaction. We contribute by proposing an approach to transport these application object semantics to the database system and optimize the query processing using the aggregate cache by applying partition pruning and predicate pushdown techniques. For the experimental evaluation, we propose the FICO benchmark that is based on data from a productive ERP system with extracted mixed workloads. Our evaluation reveals that the aggregate cache can accelerate the execution of aggregate queries up to a factor of 60 whereas the speedup highly depends on the number of aggregated records in the main and delta partitions. In mixed workloads, the proposed aggregate maintenance and query compensation techniques perform up to an order of magnitude better than traditional materialized aggregate maintenance approaches. The introduced aggregate profit metrics outperform existing costbased metrics by up to 20%. Lastly, the join pruning and predicate pushdown techniques can accelerate query execution in the aggregate cache in the presence of multiple partitioned tables by up to an order of magnitude. Y1 - 2016 ER - TY - THES A1 - Kilic, Mukayil T1 - Vernetztes Prüfen von elektronischen Komponenten über das Internet BT - Anwendungen bei der Einführung eines Carsharing-Systems Y1 - 2016 ER - TY - THES A1 - Hagedorn, Benjamin T1 - Konzepte und Techniken zur servicebasierten Visualisierung von geovirtuellen 3D-Umgebungen Y1 - 2016 ER - TY - THES A1 - Semmo, Amir T1 - Design and implementation of non-photorealistic rendering techniques for 3D geospatial data T1 - Design und Implementierung von nichtfotorealistischen Rendering-Techniken für 3D-Geodaten N2 - Geospatial data has become a natural part of a growing number of information systems and services in the economy, society, and people's personal lives. In particular, virtual 3D city and landscape models constitute valuable information sources within a wide variety of applications such as urban planning, navigation, tourist information, and disaster management. Today, these models are often visualized in detail to provide realistic imagery. However, a photorealistic rendering does not automatically lead to high image quality, with respect to an effective information transfer, which requires important or prioritized information to be interactively highlighted in a context-dependent manner. Approaches in non-photorealistic renderings particularly consider a user's task and camera perspective when attempting optimal expression, recognition, and communication of important or prioritized information. However, the design and implementation of non-photorealistic rendering techniques for 3D geospatial data pose a number of challenges, especially when inherently complex geometry, appearance, and thematic data must be processed interactively. Hence, a promising technical foundation is established by the programmable and parallel computing architecture of graphics processing units. This thesis proposes non-photorealistic rendering techniques that enable both the computation and selection of the abstraction level of 3D geospatial model contents according to user interaction and dynamically changing thematic information. To achieve this goal, the techniques integrate with hardware-accelerated rendering pipelines using shader technologies of graphics processing units for real-time image synthesis. The techniques employ principles of artistic rendering, cartographic generalization, and 3D semiotics—unlike photorealistic rendering—to synthesize illustrative renditions of geospatial feature type entities such as water surfaces, buildings, and infrastructure networks. In addition, this thesis contributes a generic system that enables to integrate different graphic styles—photorealistic and non-photorealistic—and provide their seamless transition according to user tasks, camera view, and image resolution. Evaluations of the proposed techniques have demonstrated their significance to the field of geospatial information visualization including topics such as spatial perception, cognition, and mapping. In addition, the applications in illustrative and focus+context visualization have reflected their potential impact on optimizing the information transfer regarding factors such as cognitive load, integration of non-realistic information, visualization of uncertainty, and visualization on small displays. N2 - Geodaten haben sich zu einem natürlichen Bestandteil in einer steigenden Zahl von Informationssystemen und -diensten in der Wirtschaft, Gesellschaft und im Privatleben entwickelt. Virtuelle 3D-Stadt- und Landschaftsmodelle stellen hierbei insbesondere wertvolle Informationsquellen in einer Vielzahl von Anwendungen dar, wie z. B. in der Stadtplanung, Navigation, Touristeninformation und im Katastrophenschutz. Heutzutage werden diese Modelle oftmals detailliert dargestellt, um ein möglichst realistisches Bild zu vermitteln. Jedoch führt eine fotorealistische Darstellung, hinsichtlich einem effektiven Informationstransfer zum Betrachter, nicht zwangsläufig zu einer hohen Bildqualität, welche eine interaktive und kontextsensitive Hervorhebung von wichtigen oder priorisierten Informationen erfordert. Ansätze in der nichtfotorealistischen Bildsynthese berücksichtigen insbesondere die Aufgabe eines Nutzers und Kameraperspektive, um Aspekte der Expressivität, Wahrnehmung und Kommunikation von wichtigen oder priorisierten Informationen zu optimieren. Das Design und die Umsetzung von Techniken der nichtfotorealistischen Bildsynthese für 3D-Geodaten sind jedoch mit einer Vielzahl von Herausforderungen konfrontiert, besonders dann, wenn die Geometrie, das Erscheinungsbild und thematische Daten interaktiv verarbeitet werden müssen. Infolgedessen stellt die programmierbare Architektur und parallelisierte Datenverarbeitung von Grafik-prozessoren eine vielversprechende technische Grundlage zur Verfügung. Diese Arbeit präsentiert Techniken der nichtfotorealistischen Bildsynthese, die den Abstraktionsgrad von Inhalten raumbezogener 3D-Modelle, entsprechend der Nutzerinteraktion und dynamisch-veränderbaren thematischen Informationen, berechnet und auswählt. Hierzu sind die vorgestellten Techniken in die hardwarebeschleunigte Rendering-Pipeline integriert, unter Verwendung der Shader-Technologie von Grafikprozessoren, um eine Echtzeit-Bildsynthese zu gewährleisten. Dabei werden Prinzipien der künstlerischen Darstellung, Aspekte der kartographischen Generalisierung sowie 3D Semiotik verwendet—im Gegensatz zur fotorealistischen Bildsynthese—um illustrative Darstellungen von raumbezogenen Feature-Typ-Entitäten zu synthetisieren, z. B. von Wasserflächen, Gebäuden und Infrastrukturnetzen. Darüber hinaus stellt diese Arbeit ein generisches System vor, welches die Integration verschiedener Grafikstile—fotorealistisch und nichtfotorealistisch—und ihren nahtlosen Übergang, entsprechend von Nutzeraufgaben, Kameraansichten und Bildauflösungen, ermöglicht. Evaluierungen der in dieser Arbeit vorgestellten Techniken haben ihre Bedeutung im Bereich der Informationsvisualisierung von raumbezogenen Daten aufgezeigt, einschließlich Themengebiete der räumlichen Wahrnehmung, Kognition und Kartierung. Darüber hinaus haben Anwendungen im Bereich der illustrativen Visualisierung und Fokus-&-Kontext Visualisierung den potentiellen Einfluss dieser Techniken, in Bezug auf die Optimierung des Informationstransfers zum Nutzer, demonstriert, z. B. hinsichtlich der kognitiven Last, der Integration nichtrealistischer Informationen, der Visualisierung von Unsicherheiten und der Visualisierung auf kleinen Bildschirmen. KW - non-photorealistic rendering KW - geospatial data KW - 3D visualization KW - GPU KW - image processing KW - stylization KW - 3D semiotics KW - cartographic design KW - Nichtfotorealistische Bildsynthese KW - Geodaten KW - 3D Visualisierung KW - GPU KW - Bildverarbeitung KW - Stilisierung KW - 3D Semiotik KW - Kartografisches Design Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-99525 ER - TY - JOUR A1 - Lagriffoul, Fabien A1 - Andres, Benjamin T1 - Combining task and motion planning BT - A culprit detection problem JF - The international journal of robotics research N2 - Solving problems combining task and motion planning requires searching across a symbolic search space and a geometric search space. Because of the semantic gap between symbolic and geometric representations, symbolic sequences of actions are not guaranteed to be geometrically feasible. This compels us to search in the combined search space, in which frequent backtracks between symbolic and geometric levels make the search inefficient.We address this problem by guiding symbolic search with rich information extracted from the geometric level through culprit detection mechanisms. KW - combined task and motion planning KW - manipulation planning Y1 - 2016 U6 - https://doi.org/10.1177/0278364915619022 SN - 1741-3176 SN - 0278-3649 VL - 35 IS - 8 SP - 890 EP - 927 PB - Sage Science Press CY - Thousand Oaks ER - TY - CHAP A1 - Kiy, Alexander A1 - Lucke, Ulrike T1 - Technical Approaches for Personal Learning Environments BT - Identifying Archetypes from a Literature Review T2 - 2016 IEEE 16th International Conference on Advanced Learning Technologies (ICALT) N2 - The term Personal Learning Environment (PLE) is associated with the desire to put the learner in control of his own learning process, so that he is able to set and accomplish the desired learning goals at the right time with the learning environment chosen by him. Gradually, such a learning environment includes several digital content, services and tools. It is thus summarized as the Virtual Learning Environment (VLE). Even though the construction of an individual PLE is a complex task, several approaches to support this process already exist. They mostly occur under the umbrella term PLE or with little accentuations like iPLE, which especially live within the context of institutions. This paper sums up the variety of attempts and technical approaches to establish a PLE and suggests a categorization for them. Y1 - 2016 U6 - https://doi.org/10.1109/icalt.2016.122 ER - TY - CHAP A1 - Kiy, Alexander A1 - Grünwald, Franka A1 - Weise, Matthias A1 - Lucke, Ulrike T1 - Facilitating portfolio-driven learning in a personal learning environment T2 - 3rd Workshop on Technology-Enhanced Formative Assessment, TEFA 2016; CEUR Workshop Proceedings N2 - In universities, diverse tools and software systems exist that each facilitates a different teaching and learning scenario. A deviating approach is taken by Personal Learning Environments (PLE) that aim to provide a common platform. Considering e-portfolios as an integral part of PLEs, especially portfolio-based learning and assessment have to be supported. Therefore, the concept of a PLE is developed further by enabling the products of different software systems to be integrated in portfolio pages and finally submitted for feedback and assessment. It is further elaborated how the PLE approach is used to support the continuous formative assessment within portfolio-based learning scenarios. Y1 - 2016 UR - http://www.scopus.com/inward/record.url?eid=2-s2.0-85021883746&partnerID=MN8TOARS SN - 1613-0073 VL - 1850 SP - 45 EP - 52 ER - TY - CHAP A1 - Kiy, Alexander A1 - Wölfert, Volker A1 - Lucke, Ulrike ED - Lucke, Ulrike ED - Schwill, Andreas ED - Zender, Raphael T1 - Technische Unterstützung zur Durchführung von Massenklausuren T2 - DeLFI 2016 - Die 14. E-Learning Fachtagung Informatik, 11.-14. September 2016, Potsdam N2 - Nach wie vor stellen Klausuren mit hunderten Studierenden, sogenannte Massenklausuren, insbesondere Lehrende vor organisatorische Herausforderungen, die es jedes Semester aufs Neue zu bewältigen gilt. Dieser Beitrag zeigt technische Möglichkeiten zur Unterstützung und Durchführung von Massenklausuren auf. Hierzu werden zunächst verschiedene Verfahren der Klausurvorbereitung und -organisation aus unterschiedlichen Fachdisziplinen erfasst und analysiert. Im Anschluss wird ein verallgemeinerbarer Prozess konzipiert, der sämtliche Schritte von der Planung, Erstellung, Durchführung, Kontrolle bis hin zur Archivierung berücksichtigt. Zur Unterstützung der einzelnen Prozessschritte werden technische Systeme vorgestellt, die mit den Bedürfnissen der Prüfungsverantwortlichen abgestimmt sind. Die entstandenen Systeme werden vorgestellt und die durchgeführten Zielgruppentests reflektiert. KW - Massenklausuren KW - Prüfungsoptimierung KW - Chipkarten KW - NFC KW - Barcode KW - Webanwendung Y1 - 2016 UR - http://subs.emis.de/LNI/Proceedings/Proceedings262/article20.html SN - 978-3-88579-656-5 IS - P-262 SP - 137 EP - 148 PB - Gesellschaft für Informatik e.V. CY - Bonn ER - TY - THES A1 - Schindler, Sven T1 - Honeypot Architectures for IPv6 Networks Y1 - 2016 ER - TY - THES A1 - Höllerer, Reinhard T1 - Modellierung und Optimierung von Bürgerdiensten am Beispiel der Stadt Landshut T1 - Modeling and optimization of civil services on the example of the city of Landshut N2 - Die Projektierung und Abwicklung sowie die statische und dynamische Analyse von Geschäftsprozessen im Bereich des Verwaltens und Regierens auf kommunaler, Länder- wie auch Bundesebene mit Hilfe von Informations- und Kommunikationstechniken beschäftigen Politiker und Strategen für Informationstechnologie ebenso wie die Öffentlichkeit seit Langem. Der hieraus entstandene Begriff E-Government wurde in der Folge aus den unterschiedlichsten technischen, politischen und semantischen Blickrichtungen beleuchtet. Die vorliegende Arbeit konzentriert sich dabei auf zwei Schwerpunktthemen: • Das erste Schwerpunktthema behandelt den Entwurf eines hierarchischen Architekturmodells, für welches sieben hierarchische Schichten identifiziert werden können. Diese erscheinen notwendig, aber auch hinreichend, um den allgemeinen Fall zu beschreiben. Den Hintergrund hierfür liefert die langjährige Prozess- und Verwaltungserfahrung als Leiter der EDV-Abteilung der Stadtverwaltung Landshut, eine kreisfreie Stadt mit rund 69.000 Einwohnern im Nordosten von München. Sie steht als Repräsentant für viele Verwaltungsvorgänge in der Bundesrepublik Deutschland und ist dennoch als Analyseobjekt in der Gesamtkomplexität und Prozessquantität überschaubar. Somit können aus der Analyse sämtlicher Kernabläufe statische und dynamische Strukturen extrahiert und abstrakt modelliert werden. Die Schwerpunkte liegen in der Darstellung der vorhandenen Bedienabläufe in einer Kommune. Die Transformation der Bedienanforderung in einem hierarchischen System, die Darstellung der Kontroll- und der Operationszustände in allen Schichten wie auch die Strategie der Fehlererkennung und Fehlerbehebung schaffen eine transparente Basis für umfassende Restrukturierungen und Optimierungen. Für die Modellierung wurde FMC-eCS eingesetzt, eine am Hasso-Plattner-Institut für Softwaresystemtechnik GmbH (HPI) im Fachgebiet Kommunikationssysteme entwickelte Methodik zur Modellierung zustandsdiskreter Systeme unter Berücksichtigung möglicher Inkonsistenzen (Betreuer: Prof. Dr.-Ing. Werner Zorn [ZW07a, ZW07b]). • Das zweite Schwerpunktthema widmet sich der quantitativen Modellierung und Optimierung von E-Government-Bediensystemen, welche am Beispiel des Bürgerbüros der Stadt Landshut im Zeitraum 2008 bis 2015 durchgeführt wurden. Dies erfolgt auf Basis einer kontinuierlichen Betriebsdatenerfassung mit aufwendiger Vorverarbeitung zur Extrahierung mathematisch beschreibbarer Wahrscheinlichkeitsverteilungen. Der hieraus entwickelte Dienstplan wurde hinsichtlich der erzielbaren Optimierungen im dauerhaften Echteinsatz verifiziert. [ZW07a] Zorn, Werner: «FMC-QE A New Approach in Quantitative Modeling», Vortrag anlässlich: MSV'07- The 2007 International Conference on Modeling, Simulation and Visualization Methods WorldComp2007, Las Vegas, 28.6.2007. [ZW07b] Zorn, Werner: «FMC-QE, A New Approach in Quantitative Modeling», Veröffentlichung, Hasso-Plattner-Institut für Softwaresystemtechnik an der Universität Potsdam, 28.6.2007. N2 - The project development and implementation as well as the static and dynamic analysis of business processes in the context of administration and governance on a municipal, federal state or national level by information and communication technology, has concerned the media along with politicians and strategists for information technology as well as the general public for a long time. The here-from defined term of E-Government has been examined as the focal point of discussion from most diverse technical, political and semantic perspectives. The present work focuses on two main topics: • The first main topic approaches the development of a hierarchical architecture model for which seven hierarchical layers can be identified. These seem to be necessary as well as sufficient to describe the general case. The background is provided by the long-term processual and administrative experience as head of the IT department at the municipality of Landshut, an independent city with 69.000 inhabitants located in the north-east of Munich. It is representative of many administrative processes in the Federal Republic of Germany, but nonetheless still manageable concerning its complexity and quantity of processes. Therefore, static and dynamic structures can be extracted from the analysis of all core workflows and modelled abstractly. The emphases lie on the description of the existing operating procedures in a municipality. The transformation of the operating requirements in a hierarchical system, the modeling of the control and operational states within all layers, as well as the strategy of error recognition and troubleshooting create a transparent basis for extensive restructuring and optimisation. For modeling was used FMC-eCS, a methodology for the description of state discrete systems, developed at the Hasso-Plattner-Institute for Software Systems Engineering (HPI) in the subject area of communication systems. Furthermore inconsistent system statuses are taken into consideration (advisor: Prof. Dr.-Ing. Werner Zorn [ZW02, …, ZW10]). • The second main topic focuses on the quantitative modeling and optimisation of the E-Government process chain at Landshut´s Citizens Advice Bureau (2008 up to 2015). This is based on a continuous data acquisition with sophisticated pre-processing to extract mathematically describable probability distributions. The derivation of a duty roster for actual application and a quality control conclusively verify the developed stochastic method. KW - E-Government KW - Modellierung KW - Optimierung KW - eGovernment KW - modeling KW - optimization Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-425986 ER - TY - THES A1 - Höllerer, Reinhard T1 - Modellierung und Optimierung von Bürgerdiensten am Beispiel der Stadt Landshut N2 - Die Projektierung und Abwicklung sowie die statische und dynamische Analyse von Geschäftsprozessen im Bereich des Verwaltens und Regierens auf kommunaler, Länder- wie auch Bundesebene mit Hilfe von Informations- und Kommunikationstechniken beschäftigen Politiker und Strategen für Informationstechnologie ebenso wie die Öffentlichkeit seit Langem. Der hieraus entstandene Begriff E-Government wurde in der Folge aus den unterschiedlichsten technischen, politischen und semantischen Blickrichtungen beleuchtet. Die vorliegende Arbeit konzentriert sich dabei auf zwei Schwerpunktthemen: > Das erste Schwerpunktthema behandelt den Entwurf eines hierarchischen Architekturmodells, für welches sieben hierarchische Schichten identifiziert werden können. Diese erscheinen notwendig, aber auch hinreichend, um den allgemeinen Fall zu beschreiben. Den Hintergrund hierfür liefert die langjährige Prozess- und Verwaltungserfahrung als Leiter der EDV-Abteilung der Stadtverwaltung Landshut, eine kreisfreie Stadt mit rund 69.000 Einwohnern im Nordosten von München. Sie steht als Repräsentant für viele Verwaltungsvorgänge in der Bundesrepublik Deutschland und ist dennoch als Analyseobjekt in der Gesamtkomplexität und Prozessquantität überschaubar. Somit können aus der Analyse sämtlicher Kernabläufe statische und dynamische Strukturen extrahiert und abstrakt modelliert werden. Die Schwerpunkte liegen in der Darstellung der vorhandenen Bedienabläufe in einer Kommune. Die Transformation der Bedienanforderung in einem hierarchischen System, die Darstellung der Kontroll- und der Operationszustände in allen Schichten wie auch die Strategie der Fehlererkennung und Fehlerbehebung schaffen eine transparente Basis für umfassende Restrukturierungen und Optimierungen. Für die Modellierung wurde FMC-eCS eingesetzt, eine am Hasso-Plattner-Institut für Softwaresystemtechnik GmbH (HPI) im Fachgebiet Kommunikationssysteme entwickelte Methodik zur Modellierung zustandsdiskreter Systeme unter Berücksichtigung möglicher Inkonsistenzen >Das zweite Schwerpunktthema widmet sich der quantitativen Modellierung und Optimierung von E-Government-Bediensystemen, welche am Beispiel des Bürgerbüros der Stadt Landshut im Zeitraum 2008 bis 2015 durchgeführt wurden. Dies erfolgt auf Basis einer kontinuierlichen Betriebsdatenerfassung mit aufwendiger Vorverarbeitung zur Extrahierung mathematisch beschreibbarer Wahrscheinlichkeitsverteilungen. Der hieraus entwickelte Dienstplan wurde hinsichtlich der erzielbaren Optimierungen im dauerhaften Echteinsatz verifiziert. Y1 - 2016 ER - TY - THES A1 - Al-Saffar, Loay Talib Ahmed T1 - Analysing prerequisites, expectations, apprehensions, and attitudes of university students studying Computer science T1 - Analyse von Voraussetzungen, Erwartungen, Haltungen, Einstellungen und Befürchtungen von Bachelor-Studierenden der Informatik N2 - The main objective of this dissertation is to analyse prerequisites, expectations, apprehensions, and attitudes of students studying computer science, who are willing to gain a bachelor degree. The research will also investigate in the students’ learning style according to the Felder-Silverman model. These investigations fall in the attempt to make an impact on reducing the “dropout”/shrinkage rate among students, and to suggest a better learning environment. The first investigation starts with a survey that has been made at the computer science department at the University of Baghdad to investigate the attitudes of computer science students in an environment dominated by women, showing the differences in attitudes between male and female students in different study years. Students are accepted to university studies via a centrally controlled admission procedure depending mainly on their final score at school. This leads to a high percentage of students studying subjects they do not want. Our analysis shows that 75% of the female students do not regret studying computer science although it was not their first choice. And according to statistics over previous years, women manage to succeed in their study and often graduate on top of their class. We finish with a comparison of attitudes between the freshman students of two different cultures and two different university enrolment procedures (University of Baghdad, in Iraq, and the University of Potsdam, in Germany) both with opposite gender majority. The second step of investigation took place at the department of computer science at the University of Potsdam in Germany and analyzes the learning styles of students studying the three major fields of study offered by the department (computer science, business informatics, and computer science teaching). Investigating the differences in learning styles between the students of those study fields who usually take some joint courses is important to be aware of which changes are necessary to be adopted in the teaching methods to address those different students. It was a two stage study using two questionnaires; the main one is based on the Index of Learning Styles Questionnaire of B. A. Solomon and R. M. Felder, and the second questionnaire was an investigation on the students’ attitudes towards the findings of their personal first questionnaire. Our analysis shows differences in the preferences of learning style between male and female students of the different study fields, as well as differences between students with the different specialties (computer science, business informatics, and computer science teaching). The third investigation looks closely into the difficulties, issues, apprehensions and expectations of freshman students studying computer science. The study took place at the computer science department at the University of Potsdam with a volunteer sample of students. The goal is to determine and discuss the difficulties and issues that they are facing in their study that may lead them to think in dropping-out, changing the study field, or changing the university. The research continued with the same sample of students (with business informatics students being the majority) through more than three semesters. Difficulties and issues during the study were documented, as well as students’ attitudes, apprehensions, and expectations. Some of the professors and lecturers opinions and solutions to some students’ problems were also documented. Many participants had apprehensions and difficulties, especially towards informatics subjects. Some business informatics participants began to think of changing the university, in particular when they reached their third semester, others thought about changing their field of study. Till the end of this research, most of the participants continued in their studies (the study they have started with or the new study they have changed to) without leaving the higher education system. N2 - Thema der Dissertation ist die Untersuchung von Voraussetzungen, Erwartungen, Haltungen, Einstellungen und Befürchtungen von Bachelor Studierenden der Informatik. Darüber hinaus werden in der vorliegenden Analyse anhand des Solomon/Felder-Modells Lerntypen unter den Informatik-Studierenden untersucht mit dem Ziel, mittels einer vorteilhafter gestalteten Lernumgebung zur Lernwirksamkeit und zur Reduktion der Abbrecherquote beizutragen. Zunächst werden anhand einer Vergleichsstudie zwischen Informatik-Studierenden an der Universität Bagdad und an der Universität Potsdam sowie jeweils zwischen männlichen und weiblichen Studierenden Unterschiede in der Wahrnehmung des Fachs herausgearbeitet. Hierzu trägt insbesondere das irakische Studienplatzvergabeverfahren bei, das den Studierenden nur wenig Freiheiten lässt, ein Studienfach zu wählen mit dem Ergebnis, dass viele Studierende, darunter überwiegend weibliche Studierende, gegen ihre Absicht Informatik studieren. Dennoch arrangieren sich auch die weiblichen Studierenden mit dem Fach und beenden das Studium oft mit Best-Noten. Der zweite Teil der Dissertation analysiert Lernstile von Studierenden des Instituts für Informatik der Universität Potsdam auf der Grundlage des Modells von Solomon/Felder mit dem Ziel, Hinweise für eine verbesserte Gestaltung der Lehrveranstaltungen zu gewinnen, die Lernende in der für sie geeigneten Form anspricht. Die Ergebnisse zeigen die Schwierigkeit, dieses Ziel zu erreichen, denn sowohl männliche und weibliche Studierende als auch Studierende von Informatik, Wirtschaftsinformatik und Lehramt Informatik weisen deutliche Unterschiede in den präferierten Lernstilen auf. In einer dritten qualitativen Studie wurden mit Studierenden von Informatik, Wirtschaftsinformatik und Lehramt Informatik Interviews über einen Zeitraum der ersten drei Studiensemester geführt, um einen detaillierten Einblick in Haltungen, Einstellungen und Erwartungen zum Studium zu gewinnen sowie Probleme zu ermitteln, die möglicherweise zum Abbruch des Studiums oder zum Wechsel des Fachs oder der Universität führen können. KW - computer science education KW - dropout KW - changing the university KW - changing the study field KW - Computer Science KW - business informatics KW - study problems KW - tutorial section KW - higher education KW - teachers KW - professors KW - Informatikvoraussetzungen KW - Studentenerwartungen KW - Studentenhaltungen KW - Universitätseinstellungen KW - Bachelorstudierende der Informatik KW - Abbrecherquote KW - Wirtschaftsinformatik KW - Informatik KW - Universität Potsdam KW - Universität Bagdad KW - Probleme in der Studie KW - Lehrer KW - Professoren KW - Theoretischen Vorlesungen KW - Programmierung KW - Anleitung KW - Hochschulsystem KW - Informatik-Studiengänge KW - Didaktik der Informatik Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-98437 ER - TY - THES A1 - Prasse, Paul T1 - Pattern recognition for computer security T1 - Mustererkennung für Computersicherheit BT - discriminative models for email spam campaign and malware detection BT - diskriminative Modelle zur Erkennung von Email Spam-Kampagnen und Malware N2 - Computer Security deals with the detection and mitigation of threats to computer networks, data, and computing hardware. This thesis addresses the following two computer security problems: email spam campaign and malware detection. Email spam campaigns can easily be generated using popular dissemination tools by specifying simple grammars that serve as message templates. A grammar is disseminated to nodes of a bot net, the nodes create messages by instantiating the grammar at random. Email spam campaigns can encompass huge data volumes and therefore pose a threat to the stability of the infrastructure of email service providers that have to store them. Malware -software that serves a malicious purpose- is affecting web servers, client computers via active content, and client computers through executable files. Without the help of malware detection systems it would be easy for malware creators to collect sensitive information or to infiltrate computers. The detection of threats -such as email-spam messages, phishing messages, or malware- is an adversarial and therefore intrinsically difficult problem. Threats vary greatly and evolve over time. The detection of threats based on manually-designed rules is therefore difficult and requires a constant engineering effort. Machine-learning is a research area that revolves around the analysis of data and the discovery of patterns that describe aspects of the data. Discriminative learning methods extract prediction models from data that are optimized to predict a target attribute as accurately as possible. Machine-learning methods hold the promise of automatically identifying patterns that robustly and accurately detect threats. This thesis focuses on the design and analysis of discriminative learning methods for the two computer-security problems under investigation: email-campaign and malware detection. The first part of this thesis addresses email-campaign detection. We focus on regular expressions as a syntactic framework, because regular expressions are intuitively comprehensible by security engineers and administrators, and they can be applied as a detection mechanism in an extremely efficient manner. In this setting, a prediction model is provided with exemplary messages from an email-spam campaign. The prediction model has to generate a regular expression that reveals the syntactic pattern that underlies the entire campaign, and that a security engineers finds comprehensible and feels confident enough to use the expression to blacklist further messages at the email server. We model this problem as two-stage learning problem with structured input and output spaces which can be solved using standard cutting plane methods. Therefore we develop an appropriate loss function, and derive a decoder for the resulting optimization problem. The second part of this thesis deals with the problem of predicting whether a given JavaScript or PHP file is malicious or benign. Recent malware analysis techniques use static or dynamic features, or both. In fully dynamic analysis, the software or script is executed and observed for malicious behavior in a sandbox environment. By contrast, static analysis is based on features that can be extracted directly from the program file. In order to bypass static detection mechanisms, code obfuscation techniques are used to spread a malicious program file in many different syntactic variants. Deobfuscating the code before applying a static classifier can be subjected to mostly static code analysis and can overcome the problem of obfuscated malicious code, but on the other hand increases the computational costs of malware detection by an order of magnitude. In this thesis we present a cascaded architecture in which a classifier first performs a static analysis of the original code and -based on the outcome of this first classification step- the code may be deobfuscated and classified again. We explore several types of features including token $n$-grams, orthogonal sparse bigrams, subroutine-hashings, and syntax-tree features and study the robustness of detection methods and feature types against the evolution of malware over time. The developed tool scans very large file collections quickly and accurately. Each model is evaluated on real-world data and compared to reference methods. Our approach of inferring regular expressions to filter emails belonging to an email spam campaigns leads to models with a high true-positive rate at a very low false-positive rate that is an order of magnitude lower than that of a commercial content-based filter. Our presented system -REx-SVMshort- is being used by a commercial email service provider and complements content-based and IP-address based filtering. Our cascaded malware detection system is evaluated on a high-quality data set of almost 400,000 conspicuous PHP files and a collection of more than 1,00,000 JavaScript files. From our case study we can conclude that our system can quickly and accurately process large data collections at a low false-positive rate. N2 - Computer-Sicherheit beschäftigt sich mit der Erkennung und der Abwehr von Bedrohungen für Computer-Netze, Daten und Computer-Hardware. In dieser Dissertation wird die Leistungsfähigkeit von Modellen des maschinellen Lernens zur Erkennung von Bedrohungen anhand von zwei konkreten Fallstudien analysiert. Im ersten Szenario wird die Leistungsfähigkeit von Modellen zur Erkennung von Email Spam-Kampagnen untersucht. E-Mail Spam-Kampagnen werden häufig von leicht zu bedienenden Tools erzeugt. Diese Tools erlauben es dem Benutzer, mit Hilfe eines Templates (z.B. einer regulären Grammatik) eine Emailvorlage zu definieren. Ein solches Template kann z.B. auf die Knoten eines Botnetzes verteilt werden. Dort werden Nachrichten mit diesem Template generiert und an verschiedene Absender verschickt. Die damit entstandenen E-Mail Spam-Kampagnen können riesige Datenmengen produzieren und somit zu einer Gefahr für die Stabilität der Infrastruktur von E-Mail-Service-Providern werden. Im zweiten Szenario wird die Leistungsfähigkeit von Modellen zur Erkennung von Malware untersucht. Malware bzw. Software, die schadhaften Programmcode enthält, kann Web-Server und Client-Computer über aktive Inhalte und Client-Computer über ausführbare Dateien beeinflussen. Somit kann die die reguläre und legitime Nutzung von Diensten verhindert werden. Des Weiteren kann Malware genutzt werden, um sensible Informationen zu sammeln oder Computer zu infiltrieren. Die Erkennung von Bedrohungen, die von E-Mail-Spam-Mails, Phishing-E-Mails oder Malware ausgehen, gestaltet sich schwierig. Zum einen verändern sich Bedrohungen von Zeit zu Zeit, zum anderen werden E-Mail-Spam-Mails oder Malware so modifiziert, dass sie von aktuellen Erkennungssystemen nicht oder nur schwer zu erkennen sind. Erkennungssysteme, die auf manuell erstellten Regeln basieren, sind deshalb wenig effektiv, da sie ständig administriert werden müssen. Sie müssen kontinuierlich gewartet werden, um neue Regeln (für veränderte oder neu auftretende Bedrohungen) zu erstellen und alte Regeln anzupassen bzw. zu löschen. Maschinelles Lernen ist ein Forschungsgebiet, das sich mit der Analyse von Daten und der Erkennung von Mustern beschäftigt, um bestimmte Aspekte in Daten, wie beispielsweise die Charakteristika von Malware, zu beschreiben. Mit Hilfe der Methoden des Maschinellen Lernens ist es möglich, automatisiert Muster in Daten zu erkennen. Diese Muster können genutzt werden, um Bedrohung gezielt und genau zu erkennen. Im ersten Teil wird ein Modell zur automatischen Erkennung von E-Mail-Spam-Kampag\-nen vorgestellt. Wir verwenden reguläre Ausdrücke als syntaktischen Rahmen, um E-Mail-Spam-Kampagnen zu beschreiben und E-Mails die zu einer E-Mail-Spam-Kampagne gehören zu identifizieren. Reguläre Ausdrücke sind intuitiv verständlich und können einfach von Administratoren genutzt werden, um E-Mail-Spam-Kampagnen zu beschreiben. Diese Arbeit stellt ein Modell vor, das für eine gegebene E-Mail-Spam-Kampagne einen regulären Ausdruck vorhersagt. In dieser Arbeit stellen wir ein Verfahren vor, um ein Modell zu bestimmen, das reguläre Ausdrücke vorhersagt, die zum Einen die Gesamtheit aller E-Mails in einer Spam-Kampagne abbilden und zum Anderen so verständlich aufgebaut sind, dass ein Systemadministrator eines E-Mail Servers diesen verwendet. Diese Problemstellung wird als ein zweistufiges Lernproblem mit strukturierten Ein- und Ausgaberäumen modelliert, welches mit Standardmethoden des Maschinellen Lernens gelöst werden kann. Hierzu werden eine geeignete Verlustfunktion, sowie ein Dekodierer für das resultierende Optimierungsproblem hergeleitet. Der zweite Teil behandelt die Analyse von Modellen zur Erkennung von Java-Script oder PHP-Dateien mit schadhaften Code. Viele neu entwickelte Malwareanalyse-Tools nutzen statische, dynamische oder eine Mischung beider Merkmalsarten als Eingabe, um Modelle zur Erkennung von Malware zu bilden. Um dynamische Merkmale zu extrahieren, wird eine Software oder ein Teil des Programmcodes in einer gesicherten Umgebung ausgeführt und das Verhalten (z.B. Speicherzugriffe oder Funktionsaufrufe) analysiert. Bei der statischen Analyse von Skripten und Software werden Merkmale direkt aus dem Programcode extrahiert. Um Erkennungsmechanismen, die nur auf statischen Merkmalen basieren, zu umgehen, wird der Programmcode oft maskiert. Die Maskierung von Programmcode wird genutzt, um einen bestimmten schadhaften Programmcode in vielen syntaktisch unterschiedlichen Varianten zu erzeugen. Der originale schadhafte Programmcode wird dabei erst zur Laufzeit generiert. Wird der Programmcode vor dem Anwenden eines Vorhersagemodells demaskiert, spricht man von einer vorwiegend statischen Programmcodeanalyse. Diese hat den Vorteil, dass enthaltener Schadcode einfacher zu erkennen ist. Großer Nachteil dieses Ansatzes ist die erhöhte Laufzeit durch das Demaskieren der einzelnen Dateien vor der Anwendung des Vorhersagemodells. In dieser Arbeit wird eine mehrstufige Architektur präsentiert, in der ein Klassifikator zunächst eine Vorhersage auf Grundlage einer statischen Analyse auf dem originalen Programmcode trifft. Basierend auf dieser Vorhersage wird der Programcode in einem zweiten Schritt demaskiert und erneut ein Vorhersagemodell angewendet. Wir betrachten dabei eine Vielzahl von möglichen Merkmalstypen, wie $n$-gram Merkmale, orthogonal sparse bigrams, Funktions-Hashes und Syntaxbaum Merkmale. Zudem wird in dieser Dissertation untersucht, wie robust die entwickelten Erkennungsmodelle gegenüber Veränderungen von Malware über die Zeit sind. Das vorgestellte Verfahren ermöglicht es, große Datenmengen mit hoher Treffergenauigkeit nach Malware zu durchsuchen. Alle in dieser Dissertation vorgestellten Modelle wurden auf echten Daten evaluiert und mit Referenzmethoden verglichen. Das vorgestellte Modell zur Erkennung von E-Mail-Spam-Kampagnen hat eine hohe richtig-positive Rate und eine sehr kleine falsch-positiv Rate die niedriger ist, als die eines kommerziellen E-Mail-Filters. Das Modell wird von einem kommerziellen E-Mail Service Provider während des operativen Geschäfts genutzt, um eingehende und ausgehende E-Mails eines E-Mails-Servers zu überprüfen. Der Ansatz zur Malwareerkennung wurde auf einem Datensatz mit rund 400.000 verdächtigen PHP Dateien und einer Sammlung von mehr als 1.000.000 Java-Script Dateien evaluiert. Die Fallstudie auf diesen Daten zeigt, dass das vorgestellte System schnell und mit hoher Genauigkeit riesige Datenmengen mit wenigen Falsch-Alarmen nach Malware durchsuchen kann. KW - malware detection KW - structured output prediction KW - pattern recognition KW - computer security KW - email spam detection KW - maschninelles Lernen KW - Computersicherheit KW - strukturierte Vorhersage KW - Klassifikation KW - Vorhersage KW - Spam KW - Malware Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100251 ER - TY - THES A1 - Dick, Uwe T1 - Discriminative Classification Models for Internet Security T1 - Diskriminative Klassifikationsmodelle in der Internet-Sicherheit BT - Mitigating Email Spam and HTTP-Layer DDoS Attacks BT - Verhindern von Email-Spam und HTTP-Layer DDoS-Attacken N2 - Services that operate over the Internet are under constant threat of being exposed to fraudulent use. Maintaining good user experience for legitimate users often requires the classification of entities as malicious or legitimate in order to initiate countermeasures. As an example, inbound email spam filters decide for spam or non-spam. They can base their decision on both the content of each email as well as on features that summarize prior emails received from the sending server. In general, discriminative classification methods learn to distinguish positive from negative entities. Each decision for a label may be based on features of the entity and related entities. When labels of related entities have strong interdependencies---as can be assumed e.g. for emails being delivered by the same user---classification decisions should not be made independently and dependencies should be modeled in the decision function. This thesis addresses the formulation of discriminative classification problems that are tailored for the specific demands of the following three Internet security applications. Theoretical and algorithmic solutions are devised to protect an email service against flooding of user inboxes, to mitigate abusive usage of outbound email servers, and to protect web servers against distributed denial of service attacks. In the application of filtering an inbound email stream for unsolicited emails, utilizing features that go beyond each individual email's content can be valuable. Information about each sending mail server can be aggregated over time and may help in identifying unwanted emails. However, while this information will be available to the deployed email filter, some parts of the training data that are compiled by third party providers may not contain this information. The missing features have to be estimated at training time in order to learn a classification model. In this thesis an algorithm is derived that learns a decision function that integrates over a distribution of values for each missing entry. The distribution of missing values is a free parameter that is optimized to learn an optimal decision function. The outbound stream of emails of an email service provider can be separated by the customer IDs that ask for delivery. All emails that are sent by the same ID in the same period of time are related, both in content and in label. Hijacked customer accounts may send batches of unsolicited emails to other email providers, which in turn might blacklist the sender's email servers after detection of incoming spam emails. The risk of being blocked from further delivery depends on the rate of outgoing unwanted emails and the duration of high spam sending rates. An optimization problem is developed that minimizes the expected cost for the email provider by learning a decision function that assigns a limit on the sending rate to customers based on the each customer's email stream. Identifying attacking IPs during HTTP-level DDoS attacks allows to block those IPs from further accessing the web servers. DDoS attacks are usually carried out by infected clients that are members of the same botnet and show similar traffic patterns. HTTP-level attacks aim at exhausting one or more resources of the web server infrastructure, such as CPU time. If the joint set of attackers cannot increase resource usage close to the maximum capacity, no effect will be experienced by legitimate users of hosted web sites. However, if the additional load raises the computational burden towards the critical range, user experience will degrade until service may be unavailable altogether. As the loss of missing one attacker depends on block decisions for other attackers---if most other attackers are detected, not blocking one client will likely not be harmful---a structured output model has to be learned. In this thesis an algorithm is developed that learns a structured prediction decoder that searches the space of label assignments, guided by a policy. Each model is evaluated on real-world data and is compared to reference methods. The results show that modeling each classification problem according to the specific demands of the task improves performance over solutions that do not consider the constraints inherent to an application. N2 - Viele Dienste im Internet benötigen zur Gewährleistung ihrer Erreichbarkeit die Möglichkeit, Entitäten als entweder gefährlich oder harmlos zu klassifizieren. Diskriminative Methoden des maschinellen Lernens verwenden Features von Entitäten oder Entitätengruppen, um zwischen positiven und negativen Labels zu unterscheiden. So können beispielsweise Email-Spamfilter Entscheidungen aufgrund sowohl des Inhalts der Email als auch von Informationen treffen, die vorherige Emails des gleichen versendenden Servers zusammenfassen. Darüber hinaus sind Labels zueinander in Verbindung stehender Entitäten, wie z.B. Emails des gleichen Nutzers, oftmals nicht unabhängig, so dass auch Klassifikationsentscheidungen nicht unabhängig getroffen werden sollten. Diese Arbeit beschäftigt sich mit der Formulierung diskriminativer Klassifikationsprobleme, die den speziellen Anforderungen von drei Internetsicherheitsanwendungen Rechnung tragen. Theoretische und algorithmische Lösungen zum Spamschutz von Nutzer-Inboxen eines Emailanbieters, zum Schutz von ausgehenden Emailservern gegen Missbrauch und zur Abwehr von Distributed Denial of Service-Attacken auf Webserver werden entwickelt. Beim Säubern der bei einem Emailanbieter eingehenden Menge von Emails von ungewollten Emails wie Spam können Informationen, die über den Inhalt einzelner Emails hinausgehen, von großem Nutzen sein. Etwa können Informationen über einen Mailserver zeitlich aggregiert und zum Klassifizieren neuer Emails des gleichen Servers verwendet werden. Diese Informationen sind in der Regel nur für Emails verfügbar, die vom Emailanbieter selbst empfangen werden, und fehlen bei Datensätzen, die extern gesammelte Emails beinhalten. Während des Trainings eines Spamklassifikators müssen diese Features entsprechend geschätzt werden. In dieser Arbeit wird ein Algorithmus entwickelt, der eine Entscheidungsfunktion lernt, die über eine Verteilung von fehlenden Werten integriert. Die Verteilung ist ein freier Parameter, der während des Lernens der Entscheidungsfunktion optimiert wird. Der Strom ausgehender Emails eines Emailanbieters setzt sich zusammen aus Emails einzelner Kunden. Alle Emails, die vom gleichen Kunden im gleichen Zeitraum gesendet werden, sind sowohl bzgl. Inhalt als auch Label abhängig. Kompromittierte Kundenaccounts können beispielsweise Batches von Spams an andere Emailanbieter schicken. Nach erfolgter Spamerkennung könnten diese Anbieter die Mailserver des sendenden Anbieters auf eine Blacklist setzen und somit am Versand weiterer Emails hindern. Das Risiko einer solchen Blockierung ist abhängig von der Rate ausgehender ungewollter Emails und der Dauer hoher Senderaten. Es wird ein Optimierungsproblem entwickelt, das die erwarteten Kosten des Emailproviders minimiert, indem eine Entscheidungsfunktion gelernt wird, die die erlaubte Versenderate von Kunden aufgrund der gesendeten Emails dynamisch einstellt. Um angreifende IPs während einer HTTP-Level-DDoS-Attacke zu blockieren, müssen sie als solche erkannt werden. DDoS-Angriffe werden üblicherweise von Clients durchgeführt, die dem gleichen Botnet angehören und ähnliche Traffic-Muster aufweisen. HTTP-Level-Angriffe zielen darauf, eine oder mehrere Ressourcen der Webserverinfrastruktur, wie etwa CPU-Zeit, aufzubrauchen. Für legitime Besucher ergeben sich erst dann Einschränkungen der User Experience, bis hin zur Unerreichbarkeit der Webseite, wenn Angreifer den Ressourcenverbrauch in die Nähe oder über die Maximalkapazität steigern können. Dieser durch einen Angreifer verursachte Verlust hängt von Entscheidungen für andere Angreifer ab; werden z.B. die meisten anderen Angreifer erkannt, wird ein nicht geblockter Angreifer kaum Schaden anrichten. Es wird deshalb ein Algorithmus entwickelt, der einen Dekodierer für strukturierte Vorhersagen trainiert, der, geleitet durch eine Policy, den Raum der gemeinsamen Labelzuweisungen durchsucht. Alle Modelle werden auf industriellen Daten evaluiert und mit Referenzmethoden verglichen. Die Ergebnisse zeigen, dass anforderungsspezifische Modellierung der Klassifikationsprobleme die Performance gegenüber den Vergleichsmethoden verbessert. KW - Machine Learning KW - Internet Security KW - DDoS KW - Spam-Filtering KW - DDoS KW - Internet-Sicherheit KW - Maschinelles Lernen KW - Spam-Erkennung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-102593 ER - TY - THES A1 - Mueller, Stefanie T1 - Interacting with personal fabrication devices T1 - Interaktion mit Personal Fabrication Geräten N2 - Personal fabrication tools, such as 3D printers, are on the way of enabling a future in which non-technical users will be able to create custom objects. However, while the hardware is there, the current interaction model behind existing design tools is not suitable for non-technical users. Today, 3D printers are operated by fabricating the object in one go, which tends to take overnight due to the slow 3D printing technology. Consequently, the current interaction model requires users to think carefully before printing as every mistake may imply another overnight print. Planning every step ahead, however, is not feasible for non-technical users as they lack the experience to reason about the consequences of their design decisions. In this dissertation, we propose changing the interaction model around personal fabrication tools to better serve this user group. We draw inspiration from personal computing and argue that the evolution of personal fabrication may resemble the evolution of personal computing: Computing started with machines that executed a program in one go before returning the result to the user. By decreasing the interaction unit to single requests, turn-taking systems such as the command line evolved, which provided users with feedback after every input. Finally, with the introduction of direct-manipulation interfaces, users continuously interacted with a program receiving feedback about every action in real-time. In this dissertation, we explore whether these interaction concepts can be applied to personal fabrication as well. We start with fabricating an object in one go and investigate how to tighten the feedback-cycle on an object-level: We contribute a method called low-fidelity fabrication, which saves up to 90% fabrication time by creating objects as fast low-fidelity previews, which are sufficient to evaluate key design aspects. Depending on what is currently being tested, we propose different conversions that enable users to focus on different parts: faBrickator allows for a modular design in the early stages of prototyping; when users move on WirePrint allows quickly testing an object's shape, while Platener allows testing an object's technical function. We present an interactive editor for each technique and explain the underlying conversion algorithms. By interacting on smaller units, such as a single element of an object, we explore what it means to transition from systems that fabricate objects in one go to turn-taking systems. We start with a 2D system called constructable: Users draw with a laser pointer onto the workpiece inside a laser cutter. The drawing is captured with an overhead camera. As soon as the the user finishes drawing an element, such as a line, the constructable system beautifies the path and cuts it--resulting in physical output after every editing step. We extend constructable towards 3D editing by developing a novel laser-cutting technique for 3D objects called LaserOrigami that works by heating up the workpiece with the defocused laser until the material becomes compliant and bends down under gravity. While constructable and LaserOrigami allow for fast physical feedback, the interaction is still best described as turn-taking since it consists of two discrete steps: users first create an input and afterwards the system provides physical output. By decreasing the interaction unit even further to a single feature, we can achieve real-time physical feedback: Input by the user and output by the fabrication device are so tightly coupled that no visible lag exists. This allows us to explore what it means to transition from turn-taking interfaces, which only allow exploring one option at a time, to direct manipulation interfaces with real-time physical feedback, which allow users to explore the entire space of options continuously with a single interaction. We present a system called FormFab, which allows for such direct control. FormFab is based on the same principle as LaserOrigami: It uses a workpiece that when warmed up becomes compliant and can be reshaped. However, FormFab achieves the reshaping not based on gravity, but through a pneumatic system that users can control interactively. As users interact, they see the shape change in real-time. We conclude this dissertation by extrapolating the current evolution into a future in which large numbers of people use the new technology to create objects. We see two additional challenges on the horizon: sustainability and intellectual property. We investigate sustainability by demonstrating how to print less and instead patch physical objects. We explore questions around intellectual property with a system called Scotty that transfers objects without creating duplicates, thereby preserving the designer's copyright. N2 - Personal Fabrication Geräte, wie zum Beispiel 3D Drucker, sind dabei eine Zukunft zu ermöglichen in der selbst Benutzer ohne technisches Fachwissen eigene Objekte erstellen können. Obwohl die Hardware nun verfügbar ist, gibt es derzeit kein geeignetes Interaktionsmodel für Benutzer ohne Fachwissen. Heutzutage werden Objekte mit dem 3D Drucker in einem Stück hergestellt. Da der 3D Druck noch ein sehr langsames Verfahren ist und häufig so lange dauert, dass das Objekt über Nacht hergestellt werden muss, müssen Benutzer sorgfältig alles überprüfen bevor sie den Druckauftrag abschicken, da jeder Fehler einen weiteren Tag Wartezeit bedeuten kann. Benutzer ohne technischen Hintergrund haben jedoch nicht das notwendige Fachwissen um alle Faktoren vorhersagen zu können. In dieser Dissertation schlagen wir vor das Interaktionsmodel von Personal Fabrication Geräten zu ändern, um diese Benutzer besser zu unterstützen. Wir argumentieren, dass die Entwicklung von Personal Fabrication Geräten der Entwicklung von Personal Computern gleicht. Die ersten Computer arbeiteten ein Programm vollständig ab, bevor sie ein Ergebnis an den Benutzer zurückgaben. Durch die Verkleinerung der Interaktionseinheit von ganzen Programmen zu einzelnen Anfragen wurden turn-taking Systeme wie die Kommandozeile möglich. Mit der Einführung von direkter Manipulation konnten Benutzer schließlich kontinuierlich mit dem Program arbeiten: sie erhielten Feedback über jede einzelne Interaktion in Echtzeit. Wir untersuchen in dieser Arbeit ob die gleichen Interaktionskonzepte auf Personal Fabrication Geräte angewendet werden können. Wir beginnen diese Arbeit damit zu untersuchen wie man die Feedbackzeit bei der Interaktion mit ganzen Objekten verkürzen kann. Wir präsentieren eine Methode mit dem Namen Low-fidelity Fabrication, die bis zu 90% Druckzeit spart. Low-fidelity fabrication ist schnell, weil es 3D Modelle als grobe Vorschauobjekte druckt, die aber ausreichen um die Aspekte zu testen, die gerade wichtig sind. Abhängig vom aktuellen Testfokus schlagen wir vor verschiedene Konvertierungen vorzunehmen: Unser System faBrickator ist besonders für die ersten Testläufe geeignet, wenn ein modulares Design wichtig ist. Unser System WirePrint ist besonders nützlich im nächsten Schritt, wenn die Form des Objektes erhalten bleiben soll. Am Ende erlaubt unser System Platener ein Objekt so zu konvertieren, dass die technische Funktion des Objektes bewahrt wird. Wir erklären das Design unserer interaktiven Editoren und die zugrunde liegenden Konvertierungsalgorithmen. Durch die Verkleinerung der Interaktionseinheit auf ein einzelnes Element, wie zum Beispiel einer Linie, untersuchen wir wie man Objekt-basierte Fabrikationssysteme in turn-taking Systeme umwandeln kann. Wir zeigen unser 2D System constructable, das auf einem Laser-Cutter basiert. Benutzer von constructable verwenden einen Laserpointer um auf das Werkstück im Laser-Cutter zu zeichnen. Die Zeichnung wird mit einer Kamera aufgenommen, korrigiert, und anschließend direkt mit dem Laser-Cutter ausgeschnitten. Wir erweitern constructable zu 3D mit unserer neuen Laser-Cutter Technologie Laser-Origami. LaserOrigami erzeugt 3D Objekte, indem es mit dem defokussierten Laser das Werkstück erhitzt bis es verformbar wird, die Schwerkraft biegt das Werkstück anschließend in seine 3D Form. Obwohl constructable und LaserOrigami physisches Feedback schnell erzeugen, ist die Interaktion dennoch am besten als turn-taking zu beschreiben: Benutzer editieren zuerst und sehen danach das Ergebnis. Indem wir die Interaktionseinheit noch einmal verkleinern, nun auf ein einziges Feature, können wir Echtzeitfabrikation erreichen: Benutzereingabe und physisches Feedback sind so eng miteinander verbunden, dass es keine sichtbare Verzögerung mehr gibt. Damit können wir untersuchen, was es bedeutet von turn-taking Systemen zu direkter Manipulation überzugehen. Wir zeigen ein System mit dem Namen FormFab, das solch eine direkte interaktive Kontrolle ermöglicht. FormFab basiert auf dem gleichen Prinzip wie LaserOrigami: Ein Werkstück wird erhitzt bis es verformbar wird. Allerdings verwendet FormFab nicht die Schwerkraft zum verformen, sondern ein pneumatisches System, das Benutzer interaktiv steuern können. Wenn Benutzer den Luftdruck ändern, sehen sie wie sich die Größe der Form in Echtzeit ändert. Dies erlaubt ihnen die beste Entscheidung zu treffen während sie verschiedene Optionen evaluieren. Im letzten Kapitel dieser Dissertation extrapolieren wir die aktuelle Entwicklung in eine Zukunft in der eine große Anzahl von Personen eigene Objekte herstellen werden. Dabei entstehen zwei neue Herausforderungen: Nachhaltigkeit und das Bewahren von intellektuellem Eigentum. KW - human computer interaction KW - 3D printing KW - 3D Drucken KW - Laser Cutten KW - Interaktionsmodel Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-100908 ER - TY - CHAP A1 - Dennert-Möller, Elisabeth A1 - Garmann, Robert A1 - Kujath, Bertold A1 - Zscheyge, Oliver A1 - Weicker, Karsten A1 - Böhne, Sebastian A1 - Knobelsdorf, Maria A1 - Kreitz, Christoph A1 - Steen, Alexander A1 - Wisniewski, Max A1 - Benzmüller, Christoph A1 - Gebhardt, Kai A1 - Ehlenz, Matthias A1 - Bergner, Nadine A1 - Schroeder, Ulrik ED - Schwill, Andreas ED - Lucke, Ulrike T1 - Hochschuldidaktik der Informatik BT - HDI2016 – 7. Fachtagung des GI-Fachbereichs Informatik und Ausbildung / Didaktik der Informatik ; 13.-14. September 2016 an der Universität Potsdam N2 - Die 7. Fachtagung für Hochschuldidaktik, die 2016 erneut mit der DeLFI E-Learning Fachtagung Informatik stattfand, setzte das erfolgreiche Modell einer Tagung fort, die sich mit hochschuldidaktischen Fragen und der Gestaltung von Studiengängen der Informatik beschäftigt. Thema der Tagung waren alle Fragen, die sich der Vermittlung von Informatikgegenständen im Hochschulbereich widmen. Dazu gehörten u.a.: • fachdidaktische Konzepte der Vermittlung einzelner Informatikgegenstände • methodische Lösungen, wie spezielle Lehr- und Lernformen, Durchführungskonzepte • empirische Ergebnisse und Vergleichsstudien • E-Learning-Ansätze, wenn sie ein erkennbares didaktisches Konzept verfolgen • Studienkonzepte und Curricula, organisatorische Fragen, wie Gewinnung von Studierenden, Studieneingangsphase, Abbrecher. Die Fachtagung widmete sich ausgewählten Fragestellungen dieses Themenkomplexes, die durch Vorträge ausgewiesener Experten, durch eingereichte Beiträge und durch Präsentationen und Poster intensiv behandelt wurden. Unser besonderer Dank gilt dem Programmkomitee und den hier nicht genannten Helfern für ihren Einsatz bei der Vorbereitung und Durchführung der Tagung. T3 - Commentarii informaticae didacticae (CID) - 10 Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-93511 SN - 978-3-86956-376-3 SN - 1868-0844 SN - 2191-1940 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Saleh, Eyad T1 - Securing Multi-tenant SaaS Environments N2 - Software-as-a-Service (SaaS) offers several advantages to both service providers and users. Service providers can benefit from the reduction of Total Cost of Ownership (TCO), better scalability, and better resource utilization. On the other hand, users can use the service anywhere and anytime, and minimize upfront investment by following the pay-as-you-go model. Despite the benefits of SaaS, users still have concerns about the security and privacy of their data. Due to the nature of SaaS and the Cloud in general, the data and the computation are beyond the users' control, and hence data security becomes a vital factor in this new paradigm. Furthermore, in multi-tenant SaaS applications, the tenants become more concerned about the confidentiality of their data since several tenants are co-located onto a shared infrastructure. To address those concerns, we start protecting the data from the provisioning process by controlling how tenants are being placed in the infrastructure. We present a resource allocation algorithm designed to minimize the risk of co-resident tenants called SecPlace. It enables the SaaS provider to control the resource (i.e., database instance) allocation process while taking into account the security of tenants as a requirement. Due to the design principles of the multi-tenancy model, tenants follow some degree of sharing on both application and infrastructure levels. Thus, strong security-isolation should be present. Therefore, we develop SignedQuery, a technique that prevents one tenant from accessing others' data. We use the Signing Concept to create a signature that is used to sign the tenant's request, then the server can verifies the signature and recognizes the requesting tenant, and hence ensures that the data to be accessed is belonging to the legitimate tenant. Finally, Data confidentiality remains a critical concern due to the fact that data in the Cloud is out of users' premises, and hence beyond their control. Cryptography is increasingly proposed as a potential approach to address such a challenge. Therefore, we present SecureDB, a system designed to run SQL-based applications over an encrypted database. SecureDB captures the schema design and analyzes it to understand the internal structure of the data (i.e., relationships between the tables and their attributes). Moreover, we determine the appropriate partialhomomorphic encryption scheme for each attribute where computation is possible even when the data is encrypted. To evaluate our work, we conduct extensive experiments with di↵erent settings. The main use case in our work is a popular open source HRM application, called OrangeHRM. The results show that our multi-layered approach is practical, provides enhanced security and isolation among tenants, and have a moderate complexity in terms of processing encrypted data. Y1 - 2016 ER - TY - CHAP A1 - Curzon, Paul A1 - Kalas, Ivan A1 - Schubert, Sigrid A1 - Schaper, Niclas A1 - Barnes, Jan A1 - Kennewell, Steve A1 - Bröker, Kathrin A1 - Kastens, Uwe A1 - Magenheim, Johannes A1 - Dagiene, Valentina A1 - Stupuriene, Gabriele A1 - Ellis, Jason Brent A1 - Abreu-Ellis, Carla Reis A1 - Grillenberger, Andreas A1 - Romeike, Ralf A1 - Haugsbakken, Halvdan A1 - Jones, Anthony A1 - Lewin, Cathy A1 - McNicol, Sarah A1 - Nelles, Wolfgang A1 - Neugebauer, Jonas A1 - Ohrndorf, Laura A1 - Schaper, Niclas A1 - Schubert, Sigrid A1 - Opel, Simone A1 - Kramer, Matthias A1 - Trommen, Michael A1 - Pottbäcker, Florian A1 - Ilaghef, Youssef A1 - Passig, David A1 - Tzuriel, David A1 - Kedmi, Ganit Eshel A1 - Saito, Toshinori A1 - Webb, Mary A1 - Weigend, Michael A1 - Bottino, Rosa A1 - Chioccariello, Augusto A1 - Christensen, Rhonda A1 - Knezek, Gerald A1 - Gioko, Anthony Maina A1 - Angondi, Enos Kiforo A1 - Waga, Rosemary A1 - Ohrndorf, Laura A1 - Or-Bach, Rachel A1 - Preston, Christina A1 - Younie, Sarah A1 - Przybylla, Mareen A1 - Romeike, Ralf A1 - Reynolds, Nicholas A1 - Swainston, Andrew A1 - Bendrups, Faye A1 - Sysło, Maciej M. A1 - Kwiatkowska, Anna Beata A1 - Zieris, Holger A1 - Gerstberger, Herbert A1 - Müller, Wolfgang A1 - Büchner, Steffen A1 - Opel, Simone A1 - Schiller, Thomas A1 - Wegner, Christian A1 - Zender, Raphael A1 - Lucke, Ulrike A1 - Diethelm, Ira A1 - Syrbe, Jörn A1 - Lai, Kwok-Wing A1 - Davis, Niki A1 - Eickelmann, Birgit A1 - Erstad, Ola A1 - Fisser, Petra A1 - Gibson, David A1 - Khaddage, Ferial A1 - Knezek, Gerald A1 - Micheuz, Peter A1 - Kloos, Carlos Delgado ED - Brinda, Torsten ED - Reynolds, Nicholas ED - Romeike, Ralf ED - Schwill, Andreas T1 - KEYCIT 2014 BT - key competencies in informatics and ICT N2 - In our rapidly changing world it is increasingly important not only to be an expert in a chosen field of study but also to be able to respond to developments, master new approaches to solving problems, and fulfil changing requirements in the modern world and in the job market. In response to these needs key competencies in understanding, developing and using new digital technologies are being brought into focus in school and university programmes. The IFIP TC3 conference "KEYCIT – Key Competences in Informatics and ICT (KEYCIT 2014)" was held at the University of Potsdam in Germany from July 1st to 4th, 2014 and addressed the combination of key competencies, Informatics and ICT in detail. The conference was organized into strands focusing on secondary education, university education and teacher education (organized by IFIP WGs 3.1 and 3.3) and provided a forum to present and to discuss research, case studies, positions, and national perspectives in this field. T3 - Commentarii informaticae didacticae (CID) - 7 KW - Schlüsselkompetenzen KW - Informatik KW - Bildung KW - ICT KW - Informatikdidaktik KW - Key Competencies KW - Informatics KW - education KW - ICT KW - Computer Science Education Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-70325 SN - 978-3-86956-292-6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - CHAP A1 - Knoth, Alexander Henning A1 - Kiy, Alexander A1 - Klein, M. T1 - Mobil in und aus Situationen lernen: Erste Erfahrungen zum Studieneinstieg von Studierenden verschiedener Fachrichtungen T2 - Lecture Notes in Informatics (LNI), Proceedings - Series of the Gesellschaft für Informatik T2 - Learning in and out of situations in a mobile manner: Initial experiences on the start of studies of students of different disciplines Y1 - 2015 SN - 978-3-88579-641-1 SN - 1617-5468 IS - 247 SP - 81 EP - 93 PB - Gesellschaft fur Informatik e.V. CY - Bonn ER - TY - THES A1 - Hosp, Sven T1 - Modifizierte Cross-Party Codes zur schnellen Mehrbit-Fehlerkorrektur Y1 - 2015 ER - TY - THES A1 - Wust, Johannes T1 - Mixed workload managment for in-memory databases BT - executing mixed workloads of enterprise applications with TAMEX Y1 - 2015 ER - TY - JOUR A1 - Childs, Dorothee A1 - Grimbs, Sergio A1 - Selbig, Joachim T1 - Refined elasticity sampling for Monte Carlo-based identification of stabilizing network patterns JF - Bioinformatics N2 - Motivation: Structural kinetic modelling (SKM) is a framework to analyse whether a metabolic steady state remains stable under perturbation, without requiring detailed knowledge about individual rate equations. It provides a representation of the system's Jacobian matrix that depends solely on the network structure, steady state measurements, and the elasticities at the steady state. For a measured steady state, stability criteria can be derived by generating a large number of SKMs with randomly sampled elasticities and evaluating the resulting Jacobian matrices. The elasticity space can be analysed statistically in order to detect network positions that contribute significantly to the perturbation response. Here, we extend this approach by examining the kinetic feasibility of the elasticity combinations created during Monte Carlo sampling. Results: Using a set of small example systems, we show that the majority of sampled SKMs would yield negative kinetic parameters if they were translated back into kinetic models. To overcome this problem, a simple criterion is formulated that mitigates such infeasible models. After evaluating the small example pathways, the methodology was used to study two steady states of the neuronal TCA cycle and the intrinsic mechanisms responsible for their stability or instability. The findings of the statistical elasticity analysis confirm that several elasticities are jointly coordinated to control stability and that the main source for potential instabilities are mutations in the enzyme alpha-ketoglutarate dehydrogenase. Y1 - 2015 U6 - https://doi.org/10.1093/bioinformatics/btv243 SN - 1367-4803 SN - 1460-2059 VL - 31 IS - 12 SP - 214 EP - 220 PB - Oxford Univ. Press CY - Oxford ER - TY - JOUR A1 - Lemcke, Stefanie A1 - Haedge, Kora A1 - Zender, Raphael A1 - Lucke, Ulrike T1 - RouteMe: a multilevel pervasive game on mobile ad hoc routing JF - Personal and ubiquitous computing N2 - Pervasive educational games have the potential to transfer learning content to real-life experiences beyond lecture rooms, through realizing field trips in an augmented or virtual manner. This article introduces the pervasive educational game "RouteMe" that brings the rather abstract topic of routing in ad hoc networks to real-world environments. The game is designed for university-level courses and supports these courses in a motivating manner to deepen the learning experience. Students slip into the role of either routing nodes or applications with routing demands. On three consecutive levels of difficulty, they get introduced with the game concept, learn the basic routing mechanisms and become aware of the general limitations and functionality of routing nodes. This paper presents the pedagogical and technical game concept as well as findings from an evaluation in a university setting. KW - E-learning KW - Educational game KW - Mobile application KW - Pervasive computing KW - Location awareness KW - Ad hoc routing KW - AODV Y1 - 2015 U6 - https://doi.org/10.1007/s00779-015-0843-2 SN - 1617-4909 SN - 1617-4917 VL - 19 IS - 3-4 SP - 537 EP - 549 PB - Springer CY - London ER - TY - JOUR A1 - Videla, Santiago A1 - Guziolowski, Carito A1 - Eduati, Federica A1 - Thiele, Sven A1 - Gebser, Martin A1 - Nicolas, Jacques A1 - Saez-Rodriguez, Julio A1 - Schaub, Torsten H. A1 - Siegel, Anne T1 - Learning Boolean logic models of signaling networks with ASP JF - Theoretical computer science N2 - Boolean networks provide a simple yet powerful qualitative modeling approach in systems biology. However, manual identification of logic rules underlying the system being studied is in most cases out of reach. Therefore, automated inference of Boolean logical networks from experimental data is a fundamental question in this field. This paper addresses the problem consisting of learning from a prior knowledge network describing causal interactions and phosphorylation activities at a pseudo-steady state, Boolean logic models of immediate-early response in signaling transduction networks. The underlying optimization problem has been so far addressed through mathematical programming approaches and the use of dedicated genetic algorithms. In a recent work we have shown severe limitations of stochastic approaches in this domain and proposed to use Answer Set Programming (ASP), considering a simpler problem setting. Herein, we extend our previous work in order to consider more realistic biological conditions including numerical datasets, the presence of feedback-loops in the prior knowledge network and the necessity of multi-objective optimization. In order to cope with such extensions, we propose several discretization schemes and elaborate upon our previous ASP encoding. Towards real-world biological data, we evaluate the performance of our approach over in silico numerical datasets based on a real and large-scale prior knowledge network. The correctness of our encoding and discretization schemes are dealt with in Appendices A-B. (C) 2014 Elsevier B.V. All rights reserved. KW - Answer set programming KW - Signaling transduction networks KW - Boolean logic models KW - Combinatorial multi-objective optimization KW - Systems biology Y1 - 2015 U6 - https://doi.org/10.1016/j.tcs.2014.06.022 SN - 0304-3975 SN - 1879-2294 VL - 599 SP - 79 EP - 101 PB - Elsevier CY - Amsterdam ER - TY - THES A1 - Heinze, Theodor T1 - Analyse von Patientendaten und Entscheidungsunterstützung in der Telemedizin Y1 - 2015 ER - TY - CHAP A1 - Froitzheim, Manuel A1 - Bergner, Nadine A1 - Schroeder, Ulrik A1 - Hurtienne, Dominik A1 - Spannagel, Christian A1 - Roderus, Simon A1 - Wienkop, Uwe A1 - Leonhardt, Thiemo A1 - Kwiecien, Alexandra A1 - Schmetz, Arno A1 - Bellgardt, Martin A1 - Naumann, Uwe A1 - Weßels, Doris A1 - Metzger, Christiane A1 - Längrich, Matthias A1 - Schulze, Jörg A1 - Jakoblew, Marcel A1 - Keil, Reinhard A1 - Winkelnkemper, Felix A1 - Engbring, Dieter A1 - Klar, Tilman-Mathies A1 - Kujath, Bertold A1 - Schütze, Christopher A1 - Fietkau, Julian A1 - Kindsmüller, Martin Christof A1 - Göttel, Timo A1 - Bergner, Nadine A1 - Taraschewski, Christian A1 - Vosseberg, Karin A1 - Czernik, Sofie A1 - Erb, Ulrike A1 - Vielhaber, Michael A1 - Schlierkamp, Kathrin A1 - Thurner, Veronika A1 - Bröker, Kathrin ED - Forbrig, Peter ED - Magenheim, Johannes T1 - HDI 2014 – Gestalten von Übergängen BT - 6. Fachtagung Hochschuldidaktik der Informatik ; 15.-16. September 2014, Universität Freiburg N2 - Die Tagung HDI 2014 in Freiburg zur Hochschuldidaktik der Informatik HDI wurde erneut vom Fachbereich Informatik und Ausbildung / Didaktik der Informatik (IAD) in der Gesellschaft für Informatik e. V. (GI) organisiert. Sie dient den Lehrenden der Informatik in Studiengängen an Hochschulen als Forum der Information und des Austauschs über neue didaktische Ansätze und bildungspolitische Themen im Bereich der Hochschulausbildung aus der fachlichen Perspektive der Informatik. Die HDI 2014 ist nun bereits die sechste Ausgabe der HDI. Für sie wurde das spezielle Motto „Gestalten und Meistern von Übergängen“ gewählt. Damit soll ein besonderes Augenmerk auf die Übergänge von Schule zum Studium, vom Bachelor zum Master, vom Studium zur Promotion oder vom Studium zur Arbeitswelt gelegt werden. T3 - Commentarii informaticae didacticae (CID) - 9 Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-74920 SN - 978-3-86956-313-8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Kaufmann, Benjamin T1 - High performance answer set solving Y1 - 2015 ER - TY - BOOK A1 - Plattner, Hasso A1 - Leukert, Bernd T1 - The in-memory revolution BT - how sap hana enables business of the future N2 - This book describes the next generation of business applications enabled by SAP's in-memory database, SAP HANA. In particular, the authors show the substantial changes introduced in S4/HANA by switching to SAP HANA. Using numerous examples and use cases from the authors' wealth of real-world experience, it illustrates the quantum leap in performance made possible by the new technology. The book is written by two of the most prominent actors in the area of business application systems: Hasso Plattner, co-founder of SAP and inaugurator of the Hasso Plattner Institute at the University of Potsdam, and Bernd Leukert, member of the Executive Board and the Global Managing Board of SAP. This clearly structured, highly illustrated book takes an exciting new technology and presents the practicality and success of first mover applications. Y1 - 2015 SN - 978-3-319-16672-8 PB - Springer CY - Cham ER - TY - THES A1 - Kuntzsch, Christian T1 - Konzeption und Implementierung eines multimodalen Campusroutenplaners am Beispiel der Universität Potsdam T1 - Conceptual design and implementation of a multimodal trip planner using the example of the University of Potsdam BT - Möglichkeiten und Grenzen der Nutzung von Open Source Software und freien Daten BT - possibilities and limitations using open source software and free data N2 - Die regelmäßige Navigation durch den Raum gehört für Studenten der Universität Potsdam zum Alltag. Man möchte, unabhängig vom Fortbewegungsmittel, schnell und sicher von zu Hause zum Hörsaal oder Seminargebäude. Eine umfassende Navigationshilfe, die alle Transportmodi verbindet, wird dafür verlangt. Das Ziel dieser Arbeit besteht darin, ein Konzept für einen multimodalen Routenplaner zu entwickeln, der es Studenten und Gästen der Universität Potsdam ermöglicht, sich zwischen den dezentral gelegenen Campusstandorten zu bewegen – egal ob mit Bus und Bahn, dem Auto, Fahrrad oder zu Fuß. Die Implementierung erfolgt ausschließlich auf Grundlage freier Daten und freier, quelloffener Software (FOSS), die für diesen Zweck aufbereitet werden. Ergebnis ist eine webbasierte Applikation, die über eine Entwicklerschnittstelle (API) in andere Projekte eingebunden werden kann. N2 - For Potsdam University students, navigation through space on a regular basis belongs to everyday life. There is a need for getting from one place to another as fast and as safe as possible, regardless of the means of transportation. A comprehensive navigational aid that connects any mode of transport is required. The aim of this thesis is to develop a concept for a multimodal trip planner, allowing students and guests of the University of Potsdam, to move between the decentralized campus locations – whether by bus and train, car, bike or on foot. The implementation is done solely based on free data and free open source software (FOSS) which are processed for this purpose. The result is a web-based application, integrated with a developer interface (API) to use in other projects. KW - Navigation KW - freie Software KW - freie Daten KW - navigation KW - FOSS Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-77467 ER - TY - JOUR A1 - Przybylla, Mareen A1 - Romeike, Ralf T1 - Key Competences with Physical Computing JF - KEYCIT 2014 - Key Competencies in Informatics and ICT N2 - Physical computing covers the design and realization of interactive objects and installations and allows students to develop concrete, tangible products of the real world that arise from the learners’ imagination. This way, constructionist learning is raised to a level that enables students to gain haptic experience and thereby concretizes the virtual. In this paper the defining characteristics of physical computing are described. Key competences to be gained with physical computing will be identified. KW - Defining characteristics of physical computing KW - key competences in physical computing KW - physical computing tools Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82904 SN - 1868-0844 SN - 2191-1940 IS - 7 SP - 351 EP - 361 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Wegner, Christian A1 - Zender, Raphael A1 - Lucke, Ulrike T1 - ProtoSense BT - Interactive Paper Prototyping with Multi-Touch Tables JF - KEYCIT 2014 - Key Competencies in Informatics and ICT KW - Interface design KW - paper prototyping KW - NUI Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82970 SN - 1868-0844 SN - 2191-1940 IS - 7 SP - 405 EP - 407 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Lai, Kwok-Wing A1 - Davis, Niki A1 - Eickelmann, Birgit A1 - Erstad, Ola A1 - Fisser, Petra A1 - Gibson, David A1 - Khaddage, Ferial A1 - Knezek, Gerald A1 - Webb, Mary T1 - Tackling Educational Challenges in a Digitally Networked World BT - Strategies developed from the EDUSummIT 2013 JF - KEYCIT 2014 - Key Competencies in Informatics and ICT KW - Assessment KW - computational thinking KW - digitally-enabled pedagogies KW - educational systems KW - informal and formal learning KW - mobile learning KW - mobile technologies and apps KW - organisational evolution Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82997 SN - 1868-0844 IS - 7 SP - 415 EP - 423 PB - Universitätsverlag Potsdam CY - Potsdam ER -