TY - JOUR
A1 - Zscheyge, Oliver
A1 - Weicker, Karsten
T1 - Werkzeugunterstützung bei der Vermittlung der Grundlagen wissenschaftlichen Schreibens
JF - Commentarii informaticae didacticae (CID)
N2 - Der Unterricht großer Studierendengruppen im wissenschaftlichen Schreiben birgt vielfältige organisatorische Herausforderungen und eine zeitintensive Betreuung durch die Dozenten. Diese Arbeit stellt ein Lehrkonzept mit Peer-Reviews vor, in dem das Feedback der Peers durch eine automatisierte Analyse ergänzt wird. Die Software Confopy liefert metrik- und strukturbasierte Hinweise für die Verbesserung des wissenschaftlichen Schreibstils. Der Nutzen von Confopy wird an 47 studentischen Arbeiten in Draft- und Final-Version illustriert.
Y1 - 2016
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-94814
SN - 978-3-86956-376-3
SN - 1868-0844
SN - 2191-1940
IS - 10
SP - 57
EP - 68
PB - Universitätsverlag Potsdam
CY - Potsdam
ER -
TY - JOUR
A1 - Zoerner, Dietmar
A1 - Köhlmann, Wiebke
A1 - Brandt, Christopher
T1 - Mobiles spielebasiertes Lernen an historischen Lernorten
JF - E-Learning Symposium 2014 : Mobil und vernetzt – studieren im digitalen Zeitalter ; Potsdam, 14. November 2014
N2 - Im Rahmen eines interdisziplinären studentischen Projekts wurde ein Framework für mobile pervasive Lernspiele entwickelt. Am Beispiel des historischen Lernortes Park Sanssouci wurde auf dieser Grundlage ein Lernspiel für Schülerinnen und Schüler implementiert. Die geplante Evaluation soll die Lernwirksamkeit von geobasierten mobilen Lernspielen messen. Dazu wird die Intensität des Flow-Erlebens mit einer ortsgebundenen alternativen Umsetzung verglichen.
Y1 - 2014
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442354
SP - 53
EP - 54
PB - Universitätsverlag Potsdam
CY - Potsdam
ER -
TY - THES
A1 - Zoerner, Dietmar
T1 - Förderung von Aufmerksamkeit und Motivationserhalt durch digitale spielbasierte Lernsysteme mit spezifischer Eignung bei Autismus
T1 - Promotion of attention and preservation of motivation through digital game-based learning systems with particular suitability for autism
N2 - Institutionelle Bildung ist für autistische Lernende mit vielgestaltigen und spezifischen Hindernissen verbunden. Dies gilt insbesondere im Zusammenhang mit Inklusion, deren Relevanz nicht zuletzt durch das Übereinkommen der Vereinten Nationen über die Rechte von Menschen mit Behinderung gegeben ist.
Diese Arbeit diskutiert zahlreiche lernrelevante Besonderheiten im Kontext von Autismus und zeigt Diskrepanzen zu den nicht immer ausreichend angemessenen institutionellen Lehrkonzepten. Eine zentrale These ist hierbei, dass die ungewöhnlich intensive Aufmerksamkeit von Autist*innen für ihre Spezialinteressen dafür genutzt werden kann, das Lernen mit fremdgestellten Inhalten zu erleichtern. Darauf aufbauend werden Lösungsansätze diskutiert, welche in einem neuartigen Konzept für ein digitales mehrgerätebasiertes Lernspiel resultieren.
Eine wesentliche Herausforderung bei der Konzeption spielbasierten Lernens besteht in der adäquaten Einbindung von Lerninhalten in einen fesselnden narrativen Kontext. Am Beispiel von Übungen zur emotionalen Deutung von Mimik, welche für das Lernen von sozioemotionalen Kompetenzen besonders im Rahmen von Therapiekonzepten bei Autismus Verwendung finden, wird eine angemessene Narration vorgestellt, welche die störungsarme Einbindung dieser sehr speziellen Lerninhalte ermöglicht.
Die Effekte der einzelnen Konzeptionselemente werden anhand eines prototypisch entwickelten Lernspiels untersucht. Darauf aufbauend zeigt eine quantitative Studie die gute Akzeptanz und Nutzerfreundlichkeit des Spiels und belegte vor allem die
Verständlichkeit der Narration und der Spielelemente. Ein weiterer Schwerpunkt liegt in der minimalinvasiven Untersuchung möglicher Störungen des Spielerlebnisses durch den Wechsel zwischen verschiedenen Endgeräten, für die ein innovatives Messverfahren entwickelt wurde.
Im Ergebnis beleuchtet diese Arbeit die Bedeutung und die Grenzen von spielbasierten Ansätzen für autistische Lernende. Ein großer Teil der vorgestellten Konzepte lässt sich auf andersartige Lernszenarien übertragen. Das dafür entwickelte technische Framework zur Realisierung narrativer Lernpfade ist ebenfalls darauf vorbereitet, für weitere Lernszenarien, gerade auch im institutionellen Kontext, Verwendung zu finden.
N2 - Institutional education is associated with multifaceted and specific obstacles for autistic learners. This is especially true in the context of inclusion, the relevance of which is given not least by the United Nations Convention on the Rights of Persons with Disabilities. This thesis discusses numerous learning-relevant peculiarities in the context of autism and shows discrepancies with institutional teaching concepts that are not always sufficiently appropriate. A central thesis is that the unusually intense attention of autistic students to their special interests can be used to facilitate learning with foreign content. Based on this, solutions are discussed, which result in an innovative concept for a digital multi-devicebased learning game. A key challenge in designing game-based learning is to adequately integrate learning content into a compelling narrative context. Using the example of exercises for the emotional interpretation of facial expressions, which are used for learning socioemotional competencies especially in the context of therapy concepts for autism, an appropriate narration is presented, which enables the low-disturbance integration of this very specific learning content.
The effects of the individual conceptual elements are examined based on a prototypically developed learning game. Based on this, a quantitative study shows the good acceptance and user-friendliness of the game and especially proves the comprehensibility of the narration and the game elements. Another focus is the minimally invasive investigation of possible disturbances of the game experience by switching between different end devices, for which an innovative measurement method was developed. As a result, this work sheds light on the importance and limitations of game-based approaches for autistic learners. A large part of the presented concepts can be transferred to other types of learning scenarios. The technical framework developed for the realization of narrative learning paths is also prepared to be used for other learning scenarios, especially in an institutional context.
KW - Autismus
KW - Spielbasiertes Lernen
KW - Aufmerksamkeit
KW - Attention
KW - Autism
KW - game based learning
Y1 - 2021
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-523725
ER -
TY - JOUR
A1 - Zieris, Holger
A1 - Gerstberger, Herbert
A1 - Müller, Wolfgang
T1 - Using Arduino-Based Experiments to Integrate Computer Science Education and Natural Science
JF - KEYCIT 2014 - Key Competencies in Informatics and ICT
N2 - Current curricular trends require teachers in Baden-
Wuerttemberg (Germany) to integrate Computer Science (CS) into
traditional subjects, such as Physical Science. However, concrete guidelines
are missing. To fill this gap, we outline an approach where a
microcontroller is used to perform and evaluate measurements in the
Physical Science classroom.
Using the open-source Arduino platform, we expect students to acquire
and develop both CS and Physical Science competencies by using a
self-programmed microcontroller. In addition to this combined development
of competencies in Physical Science and CS, the subject matter
will be embedded in suitable contexts and learning environments,
such as weather and climate.
KW - Computer Science Education
KW - Natural Science Education
KW - Inquiry-based Learning
KW - Physical Science
KW - Measurement
KW - Arduino
KW - Sensors
Y1 - 2015
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82938
SN - 1868-0844
SN - 2191-1940
IS - 7
SP - 381
EP - 389
PB - Universitätsverlag Potsdam
CY - Potsdam
ER -
TY - JOUR
A1 - Zien, Alexander
A1 - Rätsch, Gunnar
A1 - Mika, Sebastian
A1 - Schölkopf, Bernhard
A1 - Lengauer, Thomas
A1 - Müller, Klaus-Robert
T1 - Engineering support vector machine kernels that recognize translation initiation sites
Y1 - 2000
SN - 1367-4803
ER -
TY - THES
A1 - Ziemann, Felix
T1 - Entwicklung und Evaluation einer prototypischen Lernumgebung für das systematische Debugging logischer Fehler in Quellcode
T1 - Development and evaluation of a prototype learning environment designed for the systematic debugging of logical errors in source code
N2 - Wo programmiert wird, da passieren Fehler. Um das Debugging, also die Suche sowie die Behebung von Fehlern in Quellcode, stärker explizit zu adressieren, verfolgt die vorliegende Arbeit das Ziel, entlang einer prototypischen Lernumgebung sowohl ein systematisches Vorgehen während des Debuggings zu vermitteln als auch Gestaltungsfolgerungen für ebensolche Lernumgebungen zu identifizieren. Dazu wird die folgende Forschungsfrage gestellt: Wie verhalten sich die Lernenden während des kurzzeitigen Gebrauchs einer Lernumgebung nach dem Cognitive Apprenticeship-Ansatz mit dem Ziel der expliziten Vermittlung eines systematischen Debuggingvorgehens und welche Eindrücke entstehen während der Bearbeitung?
Zur Beantwortung dieser Forschungsfrage wurde orientierend an literaturbasierten Implikationen für die Vermittlung von Debugging und (medien-)didaktischen Gestaltungsaspekten eine prototypische Lernumgebung entwickelt und im Rahmen einer qualitativen Nutzerstudie mit Bachelorstudierenden informatischer Studiengänge erprobt. Hierbei wurden zum einen anwendungsbezogene Verbesserungspotenziale identifiziert. Zum anderen zeigte sich insbesondere gegenüber der Systematisierung des Debuggingprozesses innerhalb der Aufgabenbearbeitung eine positive Resonanz. Eine Untersuchung, inwieweit sich die Nutzung der Lernumgebung längerfristig auf das Verhalten von Personen und ihre Vorgehensweisen während des Debuggings auswirkt, könnte Gegenstand kommender Arbeiten sein.
N2 - Errors are inevitable in programming, making effective debugging crucial in software development. This study aims to develop a prototype learning environment that teaches a systematic approach to debugging while identifying design conclusions for such learning environments. The research question asks: How do learners behave during short-term use of a learning environment according to the Cognitive Apprenticeship approach, with the explicit aim of teaching a systematic debugging procedure, and what impressions arise during processing?
A prototype learning environment was developed and tested in a qualitative user study with undergraduate students of computer science. The results reveal potential for improvement in the application-related aspects of the learning environment, alongside a positive response to the systematic approach to the debugging process during task processing. Future work could further investigate the long-term effects of such learning environments on debugging behavior.
KW - Debugging
KW - systematisch
KW - Lernumgebung
KW - Prototyp
KW - logische Fehler
KW - Cognitive Apprenticeship
KW - Konstruktivismus
KW - lautes Denken
KW - debugging
KW - systematic
KW - learning environment
KW - prototype
KW - logical errors
KW - cognitive apprenticeship
KW - constructivism
KW - think aloud
Y1 - 2024
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-632734
ER -
TY - JOUR
A1 - Ziehe, Andreas
A1 - Müller, Klaus-Robert
A1 - Nolte, G.
A1 - Mackert, B.-M.
A1 - Curio, Gabriel
T1 - Artifact reduction in magnetoneurography based on time-delayed second-order correlations
Y1 - 2000
ER -
TY - JOUR
A1 - Ziehe, Andreas
A1 - Kawanabe, Motoaki
A1 - Harmeling, Stefan
T1 - Blind separation of post-nonlinear mixtures using linearizing transformations and temporal decorrelation
N2 - We propose two methods that reduce the post-nonlinear blind source separation problem (PNL-BSS) to a linear BSS problem. The first method is based on the concept of maximal correlation: we apply the alternating conditional expectation (ACE) algorithm-a powerful technique from nonparametric statistics-to approximately invert the componentwise nonlinear functions. The second method is a Gaussianizing transformation, which is motivated by the fact that linearly mixed signals before nonlinear transformation are approximately Gaussian distributed. This heuristic, but simple and efficient procedure works as good as the ACE method. Using the framework provided by ACE, convergence can be proven. The optimal transformations obtained by ACE coincide with the sought-after inverse functions of the nonlinearitics. After equalizing the nonlinearities, temporal decorrelation separation (TDSEP) allows us to recover the source signals. Numerical simulations testing "ACE-TD" and "Gauss-TD" on realistic examples are performed with excellent results
Y1 - 2004
SN - 1532-4435
ER -
TY - THES
A1 - Ziehe, Andreas
T1 - Blind source separation based on joint diagonalization of matrices with applications in biomedical signal processing
T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung
T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung
N2 - This thesis is concerned with the solution of the blind source separation problem (BSS). The BSS problem occurs frequently in various scientific and technical applications. In essence, it consists in separating meaningful underlying components out of a mixture of a multitude of superimposed signals. In the recent research literature there are two related approaches to the BSS problem: The first is known as Independent Component Analysis (ICA), where the goal is to transform the data such that the components become as independent as possible. The second is based on the notion of diagonality of certain characteristic matrices derived from the data. Here the goal is to transform the matrices such that they become as diagonal as possible. In this thesis we study the latter method of approximate joint diagonalization (AJD) to achieve a solution of the BSS problem. After an introduction to the general setting, the thesis provides an overview on particular choices for the set of target matrices that can be used for BSS by joint diagonalization. As the main contribution of the thesis, new algorithms for approximate joint diagonalization of several matrices with non-orthogonal transformations are developed. These newly developed algorithms will be tested on synthetic benchmark datasets and compared to other previous diagonalization algorithms. Applications of the BSS methods to biomedical signal processing are discussed and exemplified with real-life data sets of multi-channel biomagnetic recordings.
N2 - Diese Arbeit befasst sich mit der Lösung des Problems der blinden Signalquellentrennung (BSS). Das BSS Problem tritt häufig in vielen wissenschaftlichen und technischen Anwendungen auf. Im Kern besteht das Problem darin, aus einem Gemisch von überlagerten Signalen die zugrundeliegenden Quellsignale zu extrahieren. In wissenschaftlichen Publikationen zu diesem Thema werden hauptsächlich zwei Lösungsansätze verfolgt: Ein Ansatz ist die sogenannte "Analyse der unabhängigen Komponenten", die zum Ziel hat, eine lineare Transformation V der Daten X zu finden, sodass die Komponenten Un der transformierten Daten U = V X (die sogenannten "independent components") so unabhängig wie möglich sind. Ein anderer Ansatz beruht auf einer simultanen Diagonalisierung mehrerer spezieller Matrizen, die aus den Daten gebildet werden. Diese Möglichkeit der Lösung des Problems der blinden Signalquellentrennung bildet den Schwerpunkt dieser Arbeit. Als Hauptbeitrag der vorliegenden Arbeit präsentieren wir neue Algorithmen zur simultanen Diagonalisierung mehrerer Matrizen mit Hilfe einer nicht-orthogonalen Transformation. Die neu entwickelten Algorithmen werden anhand von numerischen Simulationen getestet und mit bereits bestehenden Diagonalisierungsalgorithmen verglichen. Es zeigt sich, dass unser neues Verfahren sehr effizient und leistungsfähig ist. Schließlich werden Anwendungen der BSS Methoden auf Probleme der biomedizinischen Signalverarbeitung erläutert und anhand von realistischen biomagnetischen Messdaten wird die Nützlichkeit in der explorativen Datenanalyse unter Beweis gestellt.
KW - Signaltrennung
KW - Mischung
KW - Diagonalisierung
KW - Bioelektrisches Signal
KW - Magnetoencephalographie
KW - Elektroencephalographie
KW - Signalquellentrennung
KW - Matrizen-Eigenwertaufgabe
KW - Simultane Diagonalisierung
KW - Optimierungsproblem
KW - blind source separation
KW - BSS
KW - ICA
KW - independent component analysis
KW - approximate joint diagonalization
KW - EEG
KW - MEG
Y1 - 2005
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5694
ER -
TY - THES
A1 - Zhou, Wei
T1 - Access control model and policies for collaborative environments
Y1 - 2008
CY - Potsdam
ER -
TY - BOOK
A1 - Zendler, Andreas
A1 - Steipe, Boris
T1 - Integrationstechnologien für die life science-informatik (State-of-the-art-report)
T3 - Preprint / Universität Potsdam, Institut für Informatik
Y1 - 2003
SN - 0946-7580
VL - 2003, 2
PB - Univ.
CY - Potsdam
ER -
TY - BOOK
A1 - Zendler, Andreas
A1 - Schmidt, Silke
A1 - Krüger, Klaus
T1 - Komponentenorientierte Softwareentwicklungstechniken
T3 - Preprint / Universität Potsdam, Institut für Informatik
Y1 - 2003
SN - 0946-7580
VL - 2003, 1
PB - Univ.
CY - Potsdam
ER -
TY - BOOK
A1 - Zendler, Andreas
T1 - X/Frame : Softwareentwicklungsumgebung für taxonomische Objektsysteme
T3 - Preprint / Universität Potsdam, Institut für Informatik
Y1 - 2000
SN - 0946-7580
VL - 1999, 12
PB - Univ.
CY - Potsdam
ER -
TY - BOOK
A1 - Zendler, Andreas
T1 - Multiple einzelfallanalytische Versuchspläne der Biometrie zur Durchführung softwaretechnischer Experimente
T3 - Preprint / Universität Potsdam, Institut für Informatik
Y1 - 1999
SN - 0946-7580
VL - 1999, 11
PB - Univ.
CY - Potsdam
ER -
TY - JOUR
A1 - Zender, Raphael
A1 - Metzler, Richard
A1 - Lucke, Ulrike
T1 - FreshUP-A pervasive educational game for freshmen
JF - Pervasive and mobile computing
N2 - Students beginning their studies at university face manifold problems such as orientation in a new environment and organizing their courses. This article presents the implementation and successful empirical evaluation of the pervasive browser-based educational game "FreshUP", which aims at helping to overcome the initial difficulties of freshmen. In contrast to a conventional scavenger hunt, mobile pervasive games like FreshUP, bridging in-game and real world activities, have the potential to provide help in a motivating manner using new technology which is currently becoming more and more common. (C) 2013 Elsevier B.V. All rights reserved.
KW - Pervasive game
KW - Campus
KW - Freshmen
KW - e-learning
KW - Mobile devices
KW - SOA
KW - Evaluation
Y1 - 2014
U6 - https://doi.org/10.1016/j.pmcj.2013.09.003
SN - 1574-1192
SN - 1873-1589
VL - 14
SP - 47
EP - 56
PB - Elsevier
CY - Amsterdam
ER -
TY - THES
A1 - Zarezadeh, Aliakbar
T1 - Distributed smart cameras : architecture and communication protocols
Y1 - 2012
CY - Potsdam
ER -
TY - THES
A1 - Yang, Haojin
T1 - Automatic video indexing and retrieval using video ocr technology
Y1 - 2013
CY - Potsdam
ER -
TY - GEN
A1 - Xenikoudakis, Georgios
A1 - Ahmed, Mayeesha
A1 - Harris, Jacob Colt
A1 - Wadleigh, Rachel
A1 - Paijmans, Johanna L. A.
A1 - Hartmann, Stefanie
A1 - Barlow, Axel
A1 - Lerner, Heather
A1 - Hofreiter, Michael
T1 - Ancient DNA reveals twenty million years of aquatic life in beavers
T2 - Current biology : CB
N2 - Xenikoudakis et al. report a partial mitochondrial genome of the extinct giant beaver Castoroides and estimate the origin of aquatic behavior in beavers to approximately 20 million years. This time estimate coincides with the extinction of terrestrial beavers and raises the question whether the two events had a common cause.
Y1 - 2020
U6 - https://doi.org/10.1016/j.cub.2019.12.041
SN - 0960-9822
SN - 1879-0445
VL - 30
IS - 3
SP - R110
EP - R111
PB - Current Biology Ltd.
CY - London
ER -
TY - JOUR
A1 - Wübbeler, G.
A1 - Ziehe, Andreas
A1 - Mackert, B.-M.
A1 - Müller, Klaus-Robert
A1 - Trahms, L.
A1 - Curio, Gabriel
T1 - Independent component analysis of noninvasively recorded cortical magnetic DC-fields in humans
Y1 - 2000
ER -
TY - THES
A1 - Wust, Johannes
T1 - Mixed workload managment for in-memory databases
BT - executing mixed workloads of enterprise applications with TAMEX
Y1 - 2015
ER -
TY - BOOK
A1 - Wu, K.
A1 - Karri, R.
A1 - Kuznetsov, Grigory
A1 - Gössel, Michael
T1 - Low Cost Concurrent Error Detection for the Advanced Encryption Standart
T3 - Preprint / Universität Potsdam, Institut für Informatik
Y1 - 2003
SN - 0946-7580
VL - 2003, 8
PB - Univ.
CY - Potsdam
ER -
TY - JOUR
A1 - Wong, P.
A1 - Besnard, Philippe
T1 - Paraconsistent reasoning as an analytical tool
Y1 - 2000
SN - 1367-0751
ER -
TY - THES
A1 - Wolter, Christian
T1 - A methodology for model-driven process security
Y1 - 2010
CY - Potsdam
ER -
TY - THES
A1 - Wist, Dominic
T1 - Attacking complexity in logic synthesis of asynchronous circuits
T1 - Komplexitätsbewältigung in der Logiksynthese asynchroner Schaltungen
N2 - Most of the microelectronic circuits fabricated today are synchronous, i.e. they are driven by one or several clock signals. Synchronous circuit design faces several fundamental challenges such as high-speed clock distribution, integration of multiple cores operating at different clock rates, reduction of power consumption and dealing with voltage, temperature, manufacturing and runtime variations. Asynchronous or clockless design plays a key role in alleviating these challenges, however the design and test of asynchronous circuits is much more difficult in comparison to their synchronous counterparts. A driving force for a widespread use of asynchronous technology is the availability of mature EDA (Electronic Design Automation) tools which provide an entire automated design flow starting from an HDL (Hardware Description Language) specification yielding the final circuit layout. Even though there was much progress in developing such EDA tools for asynchronous circuit design during the last two decades, the maturity level as well as the acceptance of them is still not comparable with tools for synchronous circuit design. In particular, logic synthesis (which implies the application of Boolean minimisation techniques) for the entire system's control path can significantly improve the efficiency of the resulting asynchronous implementation, e.g. in terms of chip area and performance. However, logic synthesis, in particular for asynchronous circuits, suffers from complexity problems. Signal Transitions Graphs (STGs) are labelled Petri nets which are a widely used to specify the interface behaviour of speed independent (SI) circuits - a robust subclass of asynchronous circuits. STG decomposition is a promising approach to tackle complexity problems like state space explosion in logic synthesis of SI circuits. The (structural) decomposition of STGs is guided by a partition of the output signals and generates a usually much smaller component STG for each partition member, i.e. a component STG with a much smaller state space than the initial specification. However, decomposition can result in component STGs that in isolation have so-called irreducible CSC conflicts (i.e. these components are not SI synthesisable anymore) even if the specification has none of them. A new approach is presented to avoid such conflicts by introducing internal communication between the components. So far, STG decompositions are guided by the finest output partitions, i.e. one output per component. However, this might not yield optimal circuit implementations. Efficient heuristics are presented to determine coarser partitions leading to improved circuits in terms of chip area. For the new algorithms correctness proofs are given and their implementations are incorporated into the decomposition tool DESIJ. The presented techniques are successfully applied to some benchmarks - including 'real-life' specifications arising in the context of control resynthesis - which delivered promising results.
N2 - Moderner Schaltungsentwurf fokussiert hauptsächlich synchrone Schaltungstechnik mit allen inhärenten Problemen. Asynchone (d.h. ungetaktete) Schaltungen zeichnen sich jedoch nicht nur durch das Fehlen der Taktversatzproblematik gegenüber ihren synchronen Pendents aus, sondern auch insbesondere durch geringeren Energieverbrauch, günstigere EMV-Eigenschaften, hohe Performance, Modularität und Robustheit gegenüber Schwankungen in der Spannungsversorgung, im Herstellungsprozess sowie Temperaturunterschieden. Diese Vorteile werden mit höherer Integration sowie höheren Taktraten signifikanter. Jedoch ist der Entwurf und auch der Test asynchroner Schaltungen erheblich schwieriger verglichen mit synchronen Schaltungen. Entwurfswerkzeuge zur Synthese asynchroner Schaltungen aus Hochsprachen-Spezifikationen sind zwar inzwischen verfügbar, sie sind jedoch noch nicht so ausgereift und bei weitem noch nicht so akzeptiert in der Industrie, wie ihre Äquivalente für den synchronen Schaltungsentwurf. Insbesondere fehlt es an Werkzeugunterstützung im Bereich der Logiksynthese komplexer Steuerungen („Controller“), welche kritisch für die Effizienz – z.B. in Bezug auf Chipfläche und Geschwindigkeit – der resultierenden Schaltungen oder Systeme ist. Zur Spezifikation von Steuerungen haben sich Signalflankengraphen („signal transition graphs“, STGs) bewährt, die auch als Entwurfseinstieg für eine Logiksynthese von SI-Schaltungen („speed independent“) verwendet werden. (SI-Schaltungen gelten als sehr robuste asynchrone Schaltungen.) Aus den STGs werden zwecks Logiksynthese Automaten abgeleitet werden, deren Zustandszahl aber oft prohibitiv groß werden kann. Durch sogenannte STG-Dekomposition wird die Logiksynthese einer komplexen Schaltung ermöglicht, was bislang aufgrund von Zustandsexplosion oft nicht möglich war. Dabei wird der Spezifikations-STG laut einer gegebenen Partition von Ausgangssignalen in viele kleinere Teilnetze dekomponiert, wobei zu jedem Partitionsblock ein Teilnetz – mit normalerweise signifikant kleinerem Zustandsraum im Vergleich zur Spezifikation – erzeugt wird. Zu jedem Teilnetz wird dann eine Teilschaltung (Komponente) mittels Logiksynthese generiert. Durch die Anwendung von STG-Dekomposition können jedoch Teilnetze erzeugt werden, die sogenannte irreduzible CSC-Konflikte aufweisen (d.h. zu diesen Teilnetzen kann keine SI-Schaltung erzeugt werden), obwohl die Spezifikation keine solchen Konflikte hatte. Diese Arbeit präsentiert einen neuen Ansatz, welcher die Entstehung solcher irreduziblen Konflikte vermeidet, und zwar durch die Einführung interner Kommunikation zwischen den (zu den Teilnetzen gehörenden) Schaltungskomponenten. Bisher werden STG-Dekompositionen total durchgeführt, d.h. pro resultierender Komponente wird ein Ausgangssignal erzeugt. Das führt gewöhnlich nicht zu optimalen Schaltungsimplementierungen. In dieser Arbeit werden Heuristiken zur Bestimmung gröberer Ausgabepartitionen (d.h. Partitionsblöcke mit mehreren Ausgangssignalen) vorgestellt, die zu kleineren Schaltungen führen. Die vorgestellten Algorithmen werden formal abgesichert und wurden in das bereits vorhandene Dekompositionswerkzeug DESIJ integriert. An praxisrelevanten Beispielen konnten die vorgestellten Verfahren erfolgreich erprobt werden.
KW - Asynchrone Schaltung
KW - Logiksynthese
KW - Komplexitätsbewältigung
KW - STG-Dekomposition
KW - CSC
KW - asynchronous circuit
KW - logic synthesis
KW - speed independence
KW - STG decomposition
KW - CSC
Y1 - 2011
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59706
ER -
TY - JOUR
A1 - Willig, Andreas
A1 - Mitschke, Robert
T1 - Results of bit error measurements with sensor nodes and casuistic consequences for design of energy-efficient error control schemes
N2 - For the proper design of energy-efficient error control schemes some insight into channel error patterns is needed. This paper presents bit error and packet loss measurements taken with sensor nodes running the popular RFM
Y1 - 2006
SN - 978-3-540-32158-3
ER -
TY - JOUR
A1 - Willig, Andreas
A1 - Matheus, K.
A1 - Wolisz, A.
T1 - Wireless technology in industrial networks
N2 - With the success of wireless technologies in consumer electronics, standard wireless technologies are envisioned for the deployment in industrial environments as well. Industrial applications involving mobile subsystems or just the desire to save cabling make wireless technologies attractive. Nevertheless, these applications often have stringent requirements on reliability and timing. In wired environments, timing and reliability are well catered for by fieldbus systems (which are a mature technology designed to enable communication between digital controllers and the sensors and actuators interfacing to a physical process). When wireless links are included, reliability and timing requirements are significantly more difficult to meet, due to the adverse properties of the radio channels. In this paper we thus discuss some key issues coming up in wireless fieldbus and wireless industrial communication systems:1)fundamental problems like achieving timely and reliable transmission despite channel errors; 2) the usage of existing wireless technologies for this specific field of applications; and 3) the creation of hybrid systems in which wireless stations are included into existing wired systems
Y1 - 2005
SN - 0018-9219
ER -
TY - BOOK
A1 - Wilhelm, Otto
ED - Budach, Lothar
T1 - Theoretische Grundlagen der Informatik : ein vorlesungsbegleitendes Manuskript für den internen Gebrauch am Institut ; Bd. 1 Automaten und Umwelten
Y1 - 1997
PB - Univ.
CY - Potsdam
ER -
TY - THES
A1 - Wildner, Uwe
T1 - CASC : compiler assisted self-checking of structural integrity
Y1 - 1997
ER -
TY - JOUR
A1 - Wildner, Uwe
T1 - Experimental evaluation of assigned signature checking with return address hashing on different platforms
Y1 - 1997
ER -
TY - JOUR
A1 - Wildner, Uwe
T1 - Compiler assisted self-checking of structural integrity using return adress hashing
Y1 - 1996
ER -
TY - JOUR
A1 - Weßels, Doris
A1 - Metzger, Christiane
ED - Schwill, Andreas
ED - Schubert, Sigrid
T1 - Die Arbeitswelt im Fokus
BT - Berufsfeldorientierte Kompetenzentwicklung und Lernmotivation im Studium der Wirtschaftsinformatik
JF - HDI 2014 : Gestalten von Übergängen
N2 - Für Bachelor-Studierende der Wirtschaftsinformatik im zweiten Semester an der Fachhochschule Kiel werden im Modul Informationsmanagement neben klassischen didaktischen Ansätzen in einer seminaristischen Unterrichtsform so genannte „Aktivbausteine“ eingesetzt: Studierende erhalten zum einen die Gelegenheit, sich im Kontakt mit Fach- und Führungskräften aus der Industrie ein konkretes Bild vom Beruf der Wirtschaftsinformatikerin bzw. des Wirtschaftsinformatikers zu machen; zum anderen erarbeiten sie innovative Ansätze der Prozessverbesserung aus Sicht der IT oder mit Nutzenpotenzial für die IT und präsentieren ihre Ergebnisse öffentlich im Rahmen des Kieler Prozessmanagementforums. Diese Aktivbausteine dienen insbesondere der Berufsfeldorientierung: Durch die Informationen, die die Studierenden über die Anforderungen und Tätigkeiten von im Beruf stehenden Menschen erhalten, werden sie in die Lage versetzt, fundierte Entscheidungen bzgl. ihrer Studiengestaltung und Berufswahl zu treffen. Im Beitrag wird die Konzeption der Bausteine vorgestellt und deren Grad der Zielerreichung durch aktuelle Evaluationsergebnisse erläutert. Zudem wird die motivationale Wirkung der Aktivbausteine anhand der Theorie der Selbstbestimmung von Deci und Ryan [DR1985, DR1993, DR2004] erläutert.
Y1 - 2015
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-80289
VL - 2015
IS - 9
SP - 77
EP - 92
ER -
TY - JOUR
A1 - Weske, Mathias
A1 - van der Aalst, Wil M. P.
A1 - Verbeek, H. M. W.
T1 - Advances in business process management
Y1 - 2004
SN - 0169-023X
ER -
TY - BOOK
A1 - Weske, Mathias
T1 - Business Process Management : Concepts, Languages, Architectures
Y1 - 2007
SN - 978-3-540-73521-2
U6 - https://doi.org/10.1007/978-3-540-73522-9
PB - Springer-Verlag Berlin Heidelberg
CY - Berlin, Heidelberg
ER -
TY - THES
A1 - Weise, Matthias
T1 - Auswahl von Selektions- und Manipulationstechniken für Virtual Reality-Anwendungen
T1 - Choosing selection and manipulation techniques for Virtual Reality applications
N2 - Die stetige Weiterentwicklung von VR-Systemen bietet neue Möglichkeiten der Interaktion mit virtuellen Objekten im dreidimensionalen Raum, stellt Entwickelnde von VRAnwendungen aber auch vor neue Herausforderungen. Selektions- und Manipulationstechniken müssen unter Berücksichtigung des Anwendungsszenarios, der Zielgruppe und der zur Verfügung stehenden Ein- und Ausgabegeräte ausgewählt werden. Diese Arbeit leistet einen Beitrag dazu, die Auswahl von passenden Interaktionstechniken zu unterstützen. Hierfür wurde eine repräsentative Menge von Selektions- und Manipulationstechniken untersucht und, unter Berücksichtigung existierender Klassifikationssysteme, eine Taxonomie entwickelt, die die Analyse der Techniken hinsichtlich interaktionsrelevanter Eigenschaften ermöglicht. Auf Basis dieser Taxonomie wurden Techniken ausgewählt, die in einer explorativen Studie verglichen wurden, um Rückschlüsse auf die Dimensionen der Taxonomie zu ziehen und neue Indizien für Vor- und Nachteile der Techniken in spezifischen Anwendungsszenarien zu generieren. Die Ergebnisse der Arbeit münden in eine Webanwendung, die Entwickelnde von VR-Anwendungen gezielt dabei unterstützt, passende Selektions- und Manipulationstechniken für ein Anwendungsszenario auszuwählen, indem Techniken auf Basis der Taxonomie gefiltert und unter Verwendung der Resultate aus der Studie sortiert werden können.
N2 - The constant advancement of VR systems offers new possibilities of interaction with virtual objects in three-dimensional space, but also poses new challenges for developers of VR applications. Selection and manipulation techniques have to be chosen in dependence of the application scenario, the users and the available input and output devices. This work contributes to support the selection of suitable interaction techniques. A representative quantity of selection and manipulation techniques has been investigated and a taxonomy has been developed based on existing classification systems which allows the analysis of the techniques with respect to properties relevant for interaction. Based on this taxonomy, techniques were selected and compared in an exploratory study in order to draw conclusions about the dimensions of the taxonomy and to generate new evidence for advantages and disadvantages of the techniques in specific application scenarios. The results of the work lead to a web application, which supports the developer of VR applications in choosing suitable selection and manipulation techniques for an application scenario by filtering techniques based on the taxonomy and sorting them using the results of the study.
KW - Virtual Reality
KW - Interaktionstechniken
KW - Mensch-Computer-Interaktion
KW - Virtual Reality
KW - interaction techniques
KW - human computer interaction
Y1 - 2022
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-534586
ER -
TY - JOUR
A1 - Weiher, Marcel
A1 - Hirschfeld, Robert
T1 - Polymorphic identifiers: uniform resource access in objective-smalltalk
JF - ACM SIGPLAN notices
N2 - In object-oriented programming, polymorphic dispatch of operations decouples clients from specific providers of services and allows implementations to be modified or substituted without affecting clients.
The Uniform Access Principle (UAP) tries to extend these qualities to resource access by demanding that access to state be indistinguishable from access to operations. Despite language features supporting the UAP, the overall goal of substitutability has not been achieved for either alternative resources such as keyed storage, files or web pages, or for alternate access mechanisms: specific kinds of resources are bound to specific access mechanisms and vice versa. Changing storage or access patterns either requires changes to both clients and service providers and trying to maintain the UAP imposes significant penalties in terms of code-duplication and/or performance overhead.
We propose introducing first class identifiers as polymorphic names for storage locations to solve these problems. With these Polymorphic Identifiers, we show that we can provide uniform access to a wide variety of resource types as well as storage and access mechanisms, whether parametrized or direct, without affecting client code, without causing code duplication or significant performance penalties.
KW - Identifiers
KW - REST
KW - Uniform Access Principle
KW - Extensibility
Y1 - 2014
U6 - https://doi.org/10.1145/2508168.2508169
SN - 0362-1340
SN - 1558-1160
VL - 49
IS - 2
SP - 61
EP - 71
PB - Association for Computing Machinery
CY - New York
ER -
TY - THES
A1 - Weigend, Michael
T1 - Intuitive Modelle der Informatik
T1 - Intuitive models in informatics
N2 - Intuitive Modelle der Informatik sind gedankliche Vorstellungen über informatische Konzepte, die mit subjektiver Gewissheit verbunden sind. Menschen verwenden sie, wenn sie die Arbeitsweise von Computerprogrammen nachvollziehen oder anderen erklären, die logische Korrektheit eines Programms prüfen oder in einem kreativen Prozess selbst Programme entwickeln. Intuitive Modelle können auf verschiedene Weise repräsentiert und kommuniziert werden, etwa verbal-abstrakt, durch ablauf- oder strukturorientierte Abbildungen und Filme oder konkrete Beispiele. Diskutiert werden in dieser Arbeit grundlegende intuitive Modelle für folgende inhaltliche Aspekte einer Programmausführung: Allokation von Aktivität bei einer Programmausführung, Benennung von Entitäten, Daten, Funktionen, Verarbeitung, Kontrollstrukturen zur Steuerung von Programmläufen, Rekursion, Klassen und Objekte. Mit Hilfe eines Systems von Online-Spielen, der Python Visual Sandbox, werden die psychische Realität verschiedener intuitiver Modelle bei Programmieranfängern nachgewiesen und fehlerhafte Anwendungen (Fehlvorstellungen) identifiziert.
N2 - Intuitive models in computer science are Gestalt-like mental concepts about information processing, which are accompanied by confidence. People use them, when they try to understand the semantics of a computer programme, explain an algorithmic idea to someone else, check the logical correctness of existing code or create computer programmes. Intuitive models can be represented and communicated in different ways using static pictures, animated movies, concrete examples or verbal language. In this paper basic intuitions concerning the following issues are discussed: allocation of activity within a running programme, assignment of names to entities, data, functions, processing concepts, control of programme execution, recursion, classes and objects. By observing activities with a set of specially designed online games (the Python Visual Sandbox), evidence has been collected to proof the psychological existence of certain intuitive models among high school students and identify inappropriate applications (misconceptions).
KW - Didaktik
KW - Informatik
KW - Intuition
KW - Visualisierung
KW - Fehlvorstellung
KW - didactics
KW - informatics
KW - intuition
KW - visualization
KW - misconception
Y1 - 2007
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-15787
SN - 978-3-940793-08-9
PB - Universitätsverlag Potsdam
CY - Potsdam
ER -
TY - JOUR
A1 - Weigend, Michael
T1 - How Things Work
BT - Recognizing and Describing Functionality
JF - KEYCIT 2014 - Key Competencies in Informatics and ICT
N2 - Recognizing and defining functionality is a key competence
adopted in all kinds of programming projects. This study investigates
how far students without specific informatics training are able to identify
and verbalize functions and parameters. It presents observations
from classroom activities on functional modeling in high school chemistry
lessons with altogether 154 students. Finally it discusses the potential
of functional modelling to improve the comprehension of scientific
content.
KW - Function
KW - programming
KW - parameter
KW - competence
KW - abstraction
Y1 - 2015
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82814
SN - 1868-0844
SN - 2191-1940
IS - 7
SP - 285
EP - 298
PB - Universitätsverlag Potsdam
CY - Potsdam
ER -
TY - THES
A1 - Weidling, Stefan
T1 - Neue Ansätze zur Verbesserung der Fehlertoleranz gegenüber transienten Fehlern in sequentiellen Schaltungen
Y1 - 2016
ER -
TY - JOUR
A1 - Weidlich, Matthias
A1 - Mendling, Jan
A1 - Weske, Mathias
T1 - Efficient consistency measurement based on behavioral profiles of process models
JF - IEEE transactions on software engineering
N2 - Engineering of process-driven business applications can be supported by process modeling efforts in order to bridge the gap between business requirements and system specifications. However, diverging purposes of business process modeling initiatives have led to significant problems in aligning related models at different abstract levels and different perspectives. Checking the consistency of such corresponding models is a major challenge for process modeling theory and practice. In this paper, we take the inappropriateness of existing strict notions of behavioral equivalence as a starting point. Our contribution is a concept called behavioral profile that captures the essential behavioral constraints of a process model. We show that these profiles can be computed efficiently, i.e., in cubic time for sound free-choice Petri nets w.r.t. their number of places and transitions. We use behavioral profiles for the definition of a formal notion of consistency which is less sensitive to model projections than common criteria of behavioral equivalence and allows for quantifying deviation in a metric way. The derivation of behavioral profiles and the calculation of a degree of consistency have been implemented to demonstrate the applicability of our approach. We also report the findings from checking consistency between partially overlapping models of the SAP reference model.
KW - Process model analysis
KW - process model alignment
KW - behavioral abstraction
KW - consistency checking
KW - consistency measures
Y1 - 2011
U6 - https://doi.org/10.1109/TSE.2010.96
SN - 0098-5589
VL - 37
IS - 3
SP - 410
EP - 429
PB - Inst. of Electr. and Electronics Engineers
CY - Los Alamitos
ER -
TY - JOUR
A1 - Weicker, Nicole
A1 - Weicker, Karsten
T1 - Analyse des Kompetenzerwerbs im Softwarepraktikum
JF - Commentarii informaticae didacticae : (CID)
N2 - Diese Arbeit enthält eine umfassende Analyse, wie der Kompetenzerwerb in einem einsemestrigen Softwarepraktikum vonstatten geht. Dabei steht neben der Frage, welche Kompetenzen besonders gut erworben wurden, der Einfluss von Vorwissen/-kompetenz im Mittelpunkt der Abhandlung. Auf dieser Basis werden einige grundlegende und konkrete Verbesserungsvorschläge erarbeitet, wie der breite Kompetenzerwerb begünstigt wird, d.h. möglichst viele Studierende sich in einem breiten Kompetenzspektrum weiterentwickeln.
KW - Informatik
KW - Ausbildung
KW - Didaktik
KW - Hochschuldidaktik
Y1 - 2009
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29676
SN - 1868-0844
SN - 2191-1940
IS - 1
SP - 93
EP - 104
ER -
TY - JOUR
A1 - Wegner, Christian
A1 - Zender, Raphael
A1 - Lucke, Ulrike
T1 - ProtoSense
BT - Interactive Paper Prototyping with Multi-Touch Tables
JF - KEYCIT 2014 - Key Competencies in Informatics and ICT
KW - Interface design
KW - paper prototyping
KW - NUI
Y1 - 2015
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82970
SN - 1868-0844
SN - 2191-1940
IS - 7
SP - 405
EP - 407
PB - Universitätsverlag Potsdam
CY - Potsdam
ER -
TY - JOUR
A1 - Webb, Mary
T1 - Considerations for the Design of Computing Curricula
JF - KEYCIT 2014 - Key Competencies in Informatics and ICT
N2 - This paper originated from discussions about the need for
important changes in the curriculum for Computing including two focus
group meetings at IFIP conferences over the last two years. The
paper examines how recent developments in curriculum, together with
insights from curriculum thinking in other subject areas, especially mathematics
and science, can inform curriculum design for Computing.
The analysis presented in the paper provides insights into the complexity
of curriculum design as well as identifying important constraints and
considerations for the ongoing development of a vision and framework
for a Computing curriculum.
KW - Curriculum
KW - Computer Science
KW - Informatics
KW - curriculum theory
Y1 - 2015
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82723
SN - 1868-0844
SN - 2191-1940
IS - 7
SP - 267
EP - 283
PB - Universitätsverlag Potsdam
CY - Potsdam
ER -
TY - THES
A1 - Wang, Long
T1 - X-tracking the usage interest on web sites
T1 - X-tracking des Nutzungsinteresses für Webseiten
N2 - The exponential expanding of the numbers of web sites and Internet users makes WWW the most important global information resource. From information publishing and electronic commerce to entertainment and social networking, the Web allows an inexpensive and efficient access to the services provided by individuals and institutions. The basic units for distributing these services are the web sites scattered throughout the world. However, the extreme fragility of web services and content, the high competence between similar services supplied by different sites, and the wide geographic distributions of the web users drive the urgent requirement from the web managers to track and understand the usage interest of their web customers. This thesis, "X-tracking the Usage Interest on Web Sites", aims to fulfill this requirement. "X" stands two meanings: one is that the usage interest differs from various web sites, and the other is that usage interest is depicted from multi aspects: internal and external, structural and conceptual, objective and subjective. "Tracking" shows that our concentration is on locating and measuring the differences and changes among usage patterns. This thesis presents the methodologies on discovering usage interest on three kinds of web sites: the public information portal site, e-learning site that provides kinds of streaming lectures and social site that supplies the public discussions on IT issues. On different sites, we concentrate on different issues related with mining usage interest. The educational information portal sites were the first implementation scenarios on discovering usage patterns and optimizing the organization of web services. In such cases, the usage patterns are modeled as frequent page sets, navigation paths, navigation structures or graphs. However, a necessary requirement is to rebuild the individual behaviors from usage history. We give a systematic study on how to rebuild individual behaviors. Besides, this thesis shows a new strategy on building content clusters based on pair browsing retrieved from usage logs. The difference between such clusters and the original web structure displays the distance between the destinations from usage side and the expectations from design side. Moreover, we study the problem on tracking the changes of usage patterns in their life cycles. The changes are described from internal side integrating conceptual and structure features, and from external side for the physical features; and described from local side measuring the difference between two time spans, and global side showing the change tendency along the life cycle. A platform, Web-Cares, is developed to discover the usage interest, to measure the difference between usage interest and site expectation and to track the changes of usage patterns. E-learning site provides the teaching materials such as slides, recorded lecture videos and exercise sheets. We focus on discovering the learning interest on streaming lectures, such as real medias, mp4 and flash clips. Compared to the information portal site, the usage on streaming lectures encapsulates the variables such as viewing time and actions during learning processes. The learning interest is discovered in the form of answering 6 questions, which covers finding the relations between pieces of lectures and the preference among different forms of lectures. We prefer on detecting the changes of learning interest on the same course from different semesters. The differences on the content and structure between two courses leverage the changes on the learning interest. We give an algorithm on measuring the difference on learning interest integrated with similarity comparison between courses. A search engine, TASK-Moniminer, is created to help the teacher query the learning interest on their streaming lectures on tele-TASK site. Social site acts as an online community attracting web users to discuss the common topics and share their interesting information. Compared to the public information portal site and e-learning web site, the rich interactions among users and web content bring the wider range of content quality, on the other hand, provide more possibilities to express and model usage interest. We propose a framework on finding and recommending high reputation articles in a social site. We observed that the reputation is classified into global and local categories; the quality of the articles having high reputation is related with the content features. Based on these observations, our framework is implemented firstly by finding the articles having global or local reputation, and secondly clustering articles based on their content relations, and then the articles are selected and recommended from each cluster based on their reputation ranks.
N2 - Wegen des exponentiellen Ansteigens der Anzahl an Internet-Nutzern und Websites ist das WWW (World Wide Web) die wichtigste globale Informationsressource geworden. Das Web bietet verschiedene Dienste (z. B. Informationsveröffentlichung, Electronic Commerce, Entertainment oder Social Networking) zum kostengünstigen und effizienten erlaubten Zugriff an, die von Einzelpersonen und Institutionen zur Verfügung gestellt werden. Um solche Dienste anzubieten, werden weltweite, vereinzelte Websites als Basiseinheiten definiert. Aber die extreme Fragilität der Web-Services und -inhalte, die hohe Kompetenz zwischen ähnlichen Diensten für verschiedene Sites bzw. die breite geographische Verteilung der Web-Nutzer treiben einen dringenden Bedarf für Web-Manager und das Verfolgen und Verstehen der Nutzungsinteresse ihrer Web-Kunden. Die Arbeit zielt darauf ab, dass die Anforderung "X-tracking the Usage Interest on Web Sites" erfüllt wird. "X" hat zwei Bedeutungen. Die erste Bedeutung ist, dass das Nutzungsinteresse von verschiedenen Websites sich unterscheidet. Außerdem stellt die zweite Bedeutung dar, dass das Nutzungsinteresse durch verschiedene Aspekte (interne und externe, strukturelle und konzeptionelle) beschrieben wird. Tracking zeigt, dass die Änderungen zwischen Nutzungsmustern festgelegt und gemessen werden. Die Arbeit eine Methodologie dar, um das Nutzungsinteresse gekoppelt an drei Arten von Websites (Public Informationsportal-Website, E-Learning-Website und Social-Website) zu finden. Wir konzentrieren uns auf unterschiedliche Themen im Bezug auf verschieden Sites, die mit Usage-Interest-Mining eng verbunden werden. Education Informationsportal-Website ist das erste Implementierungsscenario für Web-Usage-Mining. Durch das Scenario können Nutzungsmuster gefunden und die Organisation von Web-Services optimiert werden. In solchen Fällen wird das Nutzungsmuster als häufige Pagemenge, Navigation-Wege, -Strukturen oder -Graphen modelliert. Eine notwendige Voraussetzung ist jedoch, dass man individuelle Verhaltensmuster aus dem Verlauf der Nutzung (Usage History) wieder aufbauen muss. Deshalb geben wir in dieser Arbeit eine systematische Studie zum Nachempfinden der individuellen Verhaltensweisen. Außerdem zeigt die Arbeit eine neue Strategie, dass auf Page-Paaren basierten Content-Clustering aus Nutzungssite aufgebaut werden. Der Unterschied zwischen solchen Clustern und der originalen Webstruktur ist der Abstand zwischen Zielen der Nutzungssite und Erwartungen der Designsite. Darüber hinaus erforschen wir Probleme beim Tracking der Änderungen von Nutzungsmustern in ihrem Lebenszyklus. Die Änderungen werden durch mehrere Aspekte beschrieben. Für internen Aspekt werden konzeptionelle Strukturen und Funktionen integriert. Der externe Aspekt beschreibt physische Eigenschaften. Für lokalen Aspekt wird die Differenz zwischen zwei Zeitspannen gemessen. Der globale Aspekt zeigt Tendenzen der Änderung entlang des Lebenszyklus. Eine Plattform "Web-Cares" wird entwickelt, die die Nutzungsinteressen findet, Unterschiede zwischen Nutzungsinteresse und Website messen bzw. die Änderungen von Nutzungsmustern verfolgen kann. E-Learning-Websites bieten Lernmaterialien wie z.B. Folien, erfaßte Video-Vorlesungen und Übungsblätter an. Wir konzentrieren uns auf die Erfoschung des Lerninteresses auf Streaming-Vorlesungen z.B. Real-Media, mp4 und Flash-Clips. Im Vergleich zum Informationsportal Website kapselt die Nutzung auf Streaming-Vorlesungen die Variablen wie Schauzeit und Schautätigkeiten während der Lernprozesse. Das Lerninteresse wird erfasst, wenn wir Antworten zu sechs Fragen gehandelt haben. Diese Fragen umfassen verschiedene Themen, wie Erforschung der Relation zwischen Teilen von Lehrveranstaltungen oder die Präferenz zwischen den verschiedenen Formen der Lehrveranstaltungen. Wir bevorzugen die Aufdeckung der Veränderungen des Lerninteresses anhand der gleichen Kurse aus verschiedenen Semestern. Der Differenz auf den Inhalt und die Struktur zwischen zwei Kurse beeinflusst die Änderungen auf das Lerninteresse. Ein Algorithmus misst die Differenz des Lerninteresses im Bezug auf einen Ähnlichkeitsvergleich zwischen den Kursen. Die Suchmaschine „Task-Moniminer“ wird entwickelt, dass die Lehrkräfte das Lerninteresse für ihre Streaming-Vorlesungen über das Videoportal tele-TASK abrufen können. Social Websites dienen als eine Online-Community, in den teilnehmenden Web-Benutzern die gemeinsamen Themen diskutieren und ihre interessanten Informationen miteinander teilen. Im Vergleich zur Public Informationsportal-Website und E-Learning Website bietet diese Art von Website reichhaltige Interaktionen zwischen Benutzern und Inhalten an, die die breitere Auswahl der inhaltlichen Qualität bringen. Allerdings bietet eine Social-Website mehr Möglichkeiten zur Modellierung des Nutzungsinteresses an. Wir schlagen ein Rahmensystem vor, die hohe Reputation für Artikel in eine Social-Website empfiehlt. Unsere Beobachtungen sind, dass die Reputation in globalen und lokalen Kategorien klassifiziert wird. Außerdem wird die Qualität von Artikeln mit hoher Reputation mit den Content-Funktionen in Zusammenhang stehen. Durch die folgenden Schritte wird das Rahmensystem im Bezug auf die Überwachungen implementiert. Der erste Schritt ist, dass man die Artikel mit globalen oder lokalen Reputation findet. Danach werden Artikel im Bezug auf ihre Content-Relationen in jeder Kategorie gesammelt. Zum Schluß werden die ausgewählten Artikel aus jedem basierend auf ihren Reputation-Ranking Cluster empfohlen.
KW - Tracking
KW - Nutzungsinteresse
KW - Webseite
KW - Tracking
KW - Usage Interest
KW - Web Sites
Y1 - 2011
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-51077
ER -
TY - JOUR
A1 - Wang, Kewen
A1 - Zhou, Lizhu
A1 - Lin, Fangzhen
T1 - Alternating fixpoint theory for logic programs with priority
Y1 - 2000
SN - 3-540-67797-6
ER -
TY - JOUR
A1 - Wang, Kewen
A1 - Zhou, Lizhu
T1 - An extension to GCWA and query evaluation for disjunctive deductive databases
Y1 - 2001
ER -
TY - JOUR
A1 - Wang, Kewen
T1 - A comparative study of disjunctive well-founded semantics
Y1 - 2001
SN - 3-540-42593-4
ER -
TY - JOUR
A1 - Wang, Kewen
T1 - Disjunctive well-founded semantics revisited
Y1 - 2001
ER -
TY - JOUR
A1 - Wang, Kewen
T1 - A top-down procedure for disjucntive well-founded semantics
Y1 - 2001
ER -
TY - JOUR
A1 - Wang, Kewen
T1 - A top-down procedure for disjucntive well-founded semantics
Y1 - 2001
SN - 3-540-42254-4
ER -
TY - JOUR
A1 - Wang, Kewen
T1 - Argumentation-based abduction in disjunctive logic programming
Y1 - 2000
ER -
TY - JOUR
A1 - Walton, Douglas
A1 - Gordon, Thomas F.
T1 - Formalizing informal logic
JF - Informal logic : reasoning and argumentation in theory and practics
N2 - In this paper we investigate the extent to which formal argumentation models can handle ten basic characteristics of informal logic identified in the informal logic literature. By showing how almost all of these characteristics can be successfully modelled formally, we claim that good progress can be made toward the project of formalizing informal logic. Of the formal argumentation models available, we chose the Carneades Argumentation System (CAS), a formal, computational model of argument that uses argument graphs as its basis, structures of a kind very familiar to practitioners of informal logic through their use of argument diagrams.
KW - informal logic
KW - formal argumentation systems
KW - real arguments
KW - premise acceptability
KW - conductive argument
KW - RSA triangle
KW - relevance
KW - sufficiency
Y1 - 2015
SN - 0824-2577
VL - 35
IS - 4
SP - 508
EP - 538
PB - Centre for Research in Reasoning, Argumentation and Rhetoric, University of Windsor
CY - Windsor
ER -
TY - JOUR
A1 - Waitelonis, Jörg
A1 - Jürges, Henrik
A1 - Sack, Harald
T1 - Remixing entity linking evaluation datasets for focused benchmarking
JF - Semantic Web
N2 - In recent years, named entity linking (NEL) tools were primarily developed in terms of a general approach, whereas today numerous tools are focusing on specific domains such as e.g. the mapping of persons and organizations only, or the annotation of locations or events in microposts. However, the available benchmark datasets necessary for the evaluation of NEL tools do not reflect this focalizing trend. We have analyzed the evaluation process applied in the NEL benchmarking framework GERBIL [in: Proceedings of the 24th International Conference on World Wide Web (WWW’15), International World Wide Web Conferences Steering Committee, Republic and Canton of Geneva, Switzerland, 2015, pp. 1133–1143, Semantic Web 9(5) (2018), 605–625] and all its benchmark datasets. Based on these insights we have extended the GERBIL framework to enable a more fine grained evaluation and in depth analysis of the available benchmark datasets with respect to different emphases. This paper presents the implementation of an adaptive filter for arbitrary entities and customized benchmark creation as well as the automated determination of typical NEL benchmark dataset properties, such as the extent of content-related ambiguity and diversity. These properties are integrated on different levels, which also enables to tailor customized new datasets out of the existing ones by remixing documents based on desired emphases. Besides a new system library to enrich provided NIF [in: International Semantic Web Conference (ISWC’13), Lecture Notes in Computer Science, Vol. 8219, Springer, Berlin, Heidelberg, 2013, pp. 98–113] datasets with statistical information, best practices for dataset remixing are presented, and an in depth analysis of the performance of entity linking systems on special focus datasets is presented.
KW - Entity Linking
KW - GERBIL
KW - evaluation
KW - benchmark
Y1 - 2019
U6 - https://doi.org/10.3233/SW-180334
SN - 1570-0844
SN - 2210-4968
VL - 10
IS - 2
SP - 385
EP - 412
PB - IOS Press
CY - Amsterdam
ER -
TY - JOUR
A1 - Wahl, Marina
A1 - Hölscher, Michael
T1 - Und am Wochenende Blended Learning
BT - Herausforderungen und Maßnahmen für Lehr-Lern-Szenarien in der universitären Weiterbildung. Das Beispiel Universität Speyer.
JF - E-Learning Symposium 2018
N2 - Berufsbegleitende Studiengänge stehen vor besonderen Schwierigkeiten, für die der Einsatz von Blended Learning-Szenarien sinnvoll sein kann. Welche speziellen Herausforderungen sich dabei ergeben und welche Lösungsansätze dagegen steuern, betrachtet der folgende Artikel anhand eines Praxisberichts aus dem Studiengang M. P. A. Wissenschaftsmanagement an der Universität Speyer.
KW - Blended Learning
KW - E-Learning
KW - Weiterbildung
KW - LMS
KW - OpenOLAT
KW - Strategie
Y1 - 2018
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421910
SP - 17
EP - 27
PB - Universitätsverlag Potsdam
CY - Potsdam
ER -
TY - THES
A1 - Wagner, Christian
T1 - Modellgetriebene Software-Migration
Y1 - 2012
CY - Potsdam
ER -
TY - JOUR
A1 - Vosseberg, Karin
A1 - Czernik, Sofie
A1 - Erb, Ulrike
A1 - Vielhaber, Michael
ED - Schubert, Sigrid
ED - Schwill, Andreas
T1 - Projektorientierte Studieneingangsphase
BT - Das Berufsbild der Informatik und Wirtschaftsinformatik schärfen
JF - HDI 2014 : Gestalten von Übergängen
N2 - Ziel einer neuen Studieneingangsphase ist, den Studierenden bis zum Ende des ersten Semesters ein vielfältiges Berufsbild der Informatik und Wirtschaftsinformatik mit dem breiten Aufgabenspektrum aufzublättern und damit die Zusammenhänge zwischen den einzelnen Modulen des Curriculums zu verdeutlichen. Die Studierenden sollen in die Lage versetzt werden, sehr eigenständig die Planung und Gestaltung ihres Studiums in die Hand zu nehmen.
Y1 - 2015
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-84730
VL - 2015
IS - 9
SP - 169
EP - 177
ER -
TY - JOUR
A1 - Volkmann, Gerald
A1 - Linke, Thomas
A1 - Waschulzik, Thomas
A1 - Ohmes, Rick
A1 - Schaub, Torsten
A1 - Wischnewsky, M.
T1 - HExProSA - ein hybrides Expertensystem zur Prozeßkontrolle und Störfallanalyse von Abwasserbehandlungsanlagen : Erfahrungen bei der Evaluierung eines Prototypen
Y1 - 1998
UR - http://home.zait.uni-bremen.de/~gerald/papers/pius-papers.html
ER -
TY - THES
A1 - Voigt, Matthias
T1 - Entwicklung von bioinformatischen Visualisierungswerkzeugen für Metabolitdaten von Nährstoffmangelsituationen bei Arabidopsis thaliana
T1 - Development of bioinformatics visualization tools for metabolitedata resulting from situations of deficiency at Arabidopsis thaliana
N2 - Diese Arbeit umfasst die Archivierung, Visualisierung anhand bioinformatischer Methoden und Interpretation eines vorhandenen Messdatensatz (Element [ICP-MS]-, Ionen [IC]- und Metabolitdaten [RP-HPLC und GC/TOF-MS]) der Pflanze Arabidopsis thaliana getrennt in Blätter und Wurzeln. Die Pflanzen wurden den sechs Mangelsituationen der Nährstoffe Eisen, Kalium, Magnesium, Stickstoff, Phosphor und Schwefel ausgesetzt und zu neun Messzeitpunkten [0.5-, 1-, 2-, 3-, 4-, 5-, 6-, 7-in Tagen und „resupply“ (vier Stunden nach dem vierten Tag)] analysiert. Es erfolgte die Integration der Messdaten in eine SQlite-Datenbank. Die Veranschaulichung erfolgte mit Hilfe der Programmiersprache R. Anhand einiger Pakete zur Erweiterung des Funktionsumfangs von R wurde erstens eine Schnittstelle zur SQLite- Datenbank hergestellt, was ein Abfragen an diese ermöglichte und zweitens verhalfen sie zu der Erstellung einer Reihe zusätzlicher Darstellungsformen (Heatmap, Wireframe, PCA). Selbstgeschriebene Skripte erlaubten den Datenzugriff und die grafische Ausgabe als z. B. Heatmaps. In der Entstehung dieser Arbeit sind weiterhin zwei weitere Visualisierungsformen von PCA-Daten entwickelt worden: Das Abstandsdiagramm und die animierte PCA. Beides sind hilfreiche Werkzeuge zur Interpretation von PCA-Plots eines zeitlichen Verlaufes. Anhand der Darstellungen der Element- und Ionendaten ließen sich die Nährstoffmangelsituationen durch Abnahme der entsprechenden Totalelemente und Ionen nachweisen. Weiterhin sind starke Ähnlichkeiten der durch RP-HPLC bestimmten Metaboliten unter Eisen-, Kalium und Magnesiummangel erkannt worden. Allerdings gibt es nur eine geringe Anzahl an Interkationen der Metabolitgehalte, da der Großteil der Metabolitlevel im Vergleich zur Kontrolle unverändert blieb. Der Literaturvergleich mit zwei Publikationen, die den Phosphat- und Schwefelmangel in Arabidopsis thaliana untersuchten, zeigte ein durchwachsenes Ergebnis. Einerseits gab es eine gleiche Tendenz der verglichenen Aminosäuren zu verzeichen, aber andererseits wiesen die Visualisierungen auch Gegensätzlichkeiten auf. Der Vergleich der mit RP-HPLC und GC/TOF-MS gemessenen Metaboliten erbrachte ein sehr kontroverses Ergebnis. Zum einen wurden Übereinstimmungen der gleichen Metaboliten durch gemeinsame Cluster in den Heatmaps beobachtet, zum anderen auch Widersprüche, exemplarisch in den Abstandsdiagrammen der Blätterdaten jedes Verfahrens, in welchen unterschiedliche Abstandshöhepunkte erkennbar sind.
N2 - This manuscript deals with archiving, visualization with bioinformatic methods and the interpretation of an existing measuring dataset (element [ICP-MS]-, ions [IC]- and metabolit data [RP-HPLC and GC/TOF-MS]) of the plant Arabidopsis thaliana – for either its leaves and roots. These plants have been subjected to six situations of deficiency according to the nutrients iron, potassium, magnesium, nitrate, phosphor, and sulfur. They have been analyzed for nine time-points of measurement [0.5-, 1-, 2-, 3-, 4-, 5-, 6-, 7- in days and “resupply” (four hours after the fourth day). While the measuring data has been integrated in a SQLite-database, its illustration has been carried out with the help of the programming language R. In order to extend the functional range of R, first, an interface to the SQLite-database has been established, which offered the query to this and, secondly, it helped to create a row of additional display formats (heatmaps, wireframe, PCA). Self-written scripts allowed the access to the data and the graphical output, for example as heatmaps. Additionally two more visualization formats for the PCA-data have been designed in the development of this manuscript: the distance-diagram and the animated PCA. Both are useful tools to interpret PCA-plots during a specific course of time. Based on the illustration of element and ion data the situations of deficiency for several nutrients could be detected by the decrease of the corresponding total-elements and ions. Furthermore, obvious similarities between the metabolits, which were measured through RP-HPLC, have been examined under iron-, potassium- and magnesium-deficit. There are certainly only a low number of interactions regarding to the content of metabolits because most of the metabolit level did not change in comparison to the control. The comparative study of specialist literature – in this case of two particular publications –, which analyzed the deficit of phosphate and sulfate in Arabidopsis thaliana, presented an intermingled result. On the one hand a similar tendency of the compared amino acid could be observed, but on the other hand the visualizations showed opposites, too. The comparison of the metabolits measured by RP-HPLC and GC/TOF-MS effected a very controversial result. Although there are analogies between the same metabolits through common clusters in the heatmaps, contradictory elements can also be found – for example in the distance-diagram of the data of the leaves for each procedure in which different distance-peaks are recognizable.
KW - Statistikprogramm R
KW - animierte PCA
KW - Arabidopsis thaliana
KW - statistics program R
KW - animated PCA
KW - Arabidopsis thaliana
Y1 - 2009
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-33047
ER -
TY - BOOK
A1 - Vogel, Tobias
T1 - Web service generation and data quality web services
Y1 - 2010
SN - 978-3-86956-036-6
ER -
TY - BOOK
A1 - Vogel, Thomas
T1 - Models at runtime for Monitoring and adapting software systems
Y1 - 2010
SN - 978-3-86956-036-6
ER -
TY - JOUR
A1 - Vierheller, Janine
ED - Lambrecht, Anna-Lena
ED - Margaria, Tiziana
T1 - Exploratory Data Analysis
JF - Process Design for Natural Scientists: an agile model-driven approach
N2 - In bioinformatics the term exploratory data analysis refers to different methods to get an overview of large biological data sets. Hence, it helps to create a framework for further analysis and hypothesis testing. The workflow facilitates this first important step of the data analysis created by high-throughput technologies. The results are different plots showing the structure of the measurements. The goal of the workflow is the automatization of the exploratory data analysis, but also the flexibility should be guaranteed. The basic tool is the free software R.
Y1 - 2014
SN - 978-3-662-45005-5
SN - 1865-0929
IS - 500
SP - 110
EP - 126
PB - Axel Springer Verlag
CY - Berlin
ER -
TY - JOUR
A1 - Videla, Santiago
A1 - Guziolowski, Carito
A1 - Eduati, Federica
A1 - Thiele, Sven
A1 - Gebser, Martin
A1 - Nicolas, Jacques
A1 - Saez-Rodriguez, Julio
A1 - Schaub, Torsten
A1 - Siegel, Anne
T1 - Learning Boolean logic models of signaling networks with ASP
JF - Theoretical computer science
N2 - Boolean networks provide a simple yet powerful qualitative modeling approach in systems biology. However, manual identification of logic rules underlying the system being studied is in most cases out of reach. Therefore, automated inference of Boolean logical networks from experimental data is a fundamental question in this field. This paper addresses the problem consisting of learning from a prior knowledge network describing causal interactions and phosphorylation activities at a pseudo-steady state, Boolean logic models of immediate-early response in signaling transduction networks. The underlying optimization problem has been so far addressed through mathematical programming approaches and the use of dedicated genetic algorithms. In a recent work we have shown severe limitations of stochastic approaches in this domain and proposed to use Answer Set Programming (ASP), considering a simpler problem setting. Herein, we extend our previous work in order to consider more realistic biological conditions including numerical datasets, the presence of feedback-loops in the prior knowledge network and the necessity of multi-objective optimization. In order to cope with such extensions, we propose several discretization schemes and elaborate upon our previous ASP encoding. Towards real-world biological data, we evaluate the performance of our approach over in silico numerical datasets based on a real and large-scale prior knowledge network. The correctness of our encoding and discretization schemes are dealt with in Appendices A-B. (C) 2014 Elsevier B.V. All rights reserved.
KW - Answer set programming
KW - Signaling transduction networks
KW - Boolean logic models
KW - Combinatorial multi-objective optimization
KW - Systems biology
Y1 - 2015
U6 - https://doi.org/10.1016/j.tcs.2014.06.022
SN - 0304-3975
SN - 1879-2294
VL - 599
SP - 79
EP - 101
PB - Elsevier
CY - Amsterdam
ER -
TY - THES
A1 - Videla, Santiago
T1 - Reasoning on the response of logical signaling networks with answer set programming
T1 - Modellierung Logischer Signalnetzwerke mittels Antwortmengenprogrammierung
N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks.
N2 - Deciphering the functioning of biological networks is one of the central tasks in systems biology. In particular, signal transduction networks are crucial for the understanding of the cellular response to external and internal perturbations. Importantly, in order to cope with the complexity of these networks, mathematical and computational modeling is required. We propose a computational modeling framework in order to achieve more robust discoveries in the context of logical signaling networks. More precisely, we focus on modeling the response of logical signaling networks by means of automated reasoning using Answer Set Programming (ASP). ASP provides a declarative language for modeling various knowledge representation and reasoning problems. Moreover, available ASP solvers provide several reasoning modes for assessing the multitude of answer sets. Therefore, leveraging its rich modeling language and its highly efficient solving capacities, we use ASP to address three challenging problems in the context of logical signaling networks: learning of (Boolean) logical networks, experimental design, and identification of intervention strategies. Overall, the contribution of this thesis is three-fold. Firstly, we introduce a mathematical framework for characterizing and reasoning on the response of logical signaling networks. Secondly, we contribute to a growing list of successful applications of ASP in systems biology. Thirdly, we present a software providing a complete pipeline for automated reasoning on the response of logical signaling networks.
KW - Systembiologie
KW - logische Signalnetzwerke
KW - Antwortmengenprogrammierung
KW - systems biology
KW - logical signaling networks
KW - answer set programming
Y1 - 2014
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71890
ER -
TY - JOUR
A1 - Vandenhouten, Ralf
A1 - Behrens, Thomas
A1 - Schnor, Bettina
T1 - Entwicklung eines Gatewaysystems für telematikbasiertes Gerätemonitoring
Y1 - 2004
SN - 0949-8214
ER -
TY - JOUR
A1 - van Hooland, Seth
A1 - Verborgh, Ruben
A1 - De Wilde, Max
A1 - Hercher, Johannes
A1 - Mannens, Erik
A1 - Van de Walle, Rik
T1 - Evaluating the success of vocabulary reconciliation for cultural heritage collections
JF - Journal of the American Society for Information Science and Technology
N2 - The concept of Linked Data has made its entrance in the cultural heritage sector due to its potential use for the integration of heterogeneous collections and deriving additional value out of existing metadata. However, practitioners and researchers alike need a better understanding of what outcome they can reasonably expect of the reconciliation process between their local metadata and established controlled vocabularies which are already a part of the Linked Data cloud. This paper offers an in-depth analysis of how a locally developed vocabulary can be successfully reconciled with the Library of Congress Subject Headings (LCSH) and the Arts and Architecture Thesaurus (AAT) through the help of a general-purpose tool for interactive data transformation (OpenRefine). Issues negatively affecting the reconciliation process are identified and solutions are proposed in order to derive maximum value from existing metadata and controlled vocabularies in an automated manner.
KW - semantic web
KW - metadata
KW - controlled vocabularies
Y1 - 2013
U6 - https://doi.org/10.1002/asi.22763
SN - 1532-2882
VL - 64
IS - 3
SP - 464
EP - 479
PB - Wiley-Blackwell
CY - Hoboken
ER -
TY - JOUR
A1 - Uflacker, Matthias
A1 - Kowark, Thomas
A1 - Zeier, Alexander
T1 - An instrument for real-time design interaction capture
Y1 - 2011
SN - 978-3-642-13756-3
ER -
TY - THES
A1 - Uflacker, Matthias
T1 - Monitoring virtual team collaboration : methods, applications and experiences in engineering design
Y1 - 2010
CY - Potsdam
ER -
TY - JOUR
A1 - Uflacker, Matthias
T1 - Computational analysis of virtual team collaboration in teh early stages of engineering design
Y1 - 2010
SN - 978-3-86956-036-6
ER -
TY - BOOK
A1 - Tsuda, Koji
A1 - Sugiyama, Masashi
A1 - Müller, Klaus-Robert
T1 - Subspace information criterion for non-quadratice regularizers : model selection for sparse regressors
T3 - GMD-Report
Y1 - 2000
VL - 120
PB - GMD-Forschungszentrum Informationstechnik
CY - Sankt Augustin
ER -
TY - JOUR
A1 - Tscherejkina, Anna
A1 - Morgiel, Anna
A1 - Moebert, Tobias
T1 - Computergestütztes Training von sozio-emotionalen Kompetenzen durch Minispiele
JF - E-Learning Symposium 2018
N2 - Das Training sozioemotionaler Kompetenzen ist gerade für Menschen mit Autismus nützlich. Ein solches Training kann mithilfe einer spielbasierten Anwendung effektiv gestaltet werden. Zwei Minispiele, Mimikry und Emo-Mahjong, wurden realisiert und hinsichtlich User Experience evaluiert. Die jeweiligen Konzepte und die Evaluationsergebnisse sollen hier vorgestellt werden.
KW - Computergestützes Training
KW - User Experience
KW - Digital Game Based Learning
KW - Autismus
Y1 - 2018
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-421937
SP - 41
EP - 52
PB - Universitätsverlag Potsdam
CY - Potsdam
ER -
TY - BOOK
A1 - Trümper, Jonas
T1 - Towards visualization of complex, service-based software systems
Y1 - 2010
SN - 978-3-86956-036-6
ER -
TY - THES
A1 - Tröger, Peter
T1 - Dynamische Ressourcenverwaltung für dienstbasierte Software-Systeme
Y1 - 2008
SN - 978-3-86727-622-1
PB - Cuvillier
CY - Göttingen
ER -
TY - THES
A1 - Tröger, Peter
T1 - Dynamische Ressourcenverwaltung für dienstbasierte Software-Systeme
Y1 - 2008
CY - Potsdam
ER -
TY - JOUR
A1 - Troeger, Peter
A1 - Merzky, Andre
T1 - Towards standardized job submission and control in infrastructure clouds
JF - Journal of grid computing
N2 - The submission and management of computational jobs is a traditional part of utility computing environments. End users and developers of domain-specific software abstractions often have to deal with the heterogeneity of such batch processing systems. This lead to a number of application programming interface and job description standards in the past, which are implemented and established for cluster and Grid systems. With the recent rise of cloud computing as new utility computing paradigm, the standardized access to batch processing facilities operated on cloud resources becomes an important issue. Furthermore, the design of such a standard has to consider a tradeoff between feature completeness and the achievable level of interoperability. The article discusses this general challenge, and presents some existing standards with traditional cluster and Grid computing background that may be applicable to cloud environments. We present OCCI-DRMAA as one approach for standardized access to batch processing facilities hosted in a cloud.
KW - Cloud
KW - IaaS
KW - DRMS
KW - DRMAA
KW - OCCI
KW - Batch processing
KW - Job submission
KW - Job monitoring
Y1 - 2014
U6 - https://doi.org/10.1007/s10723-013-9275-2
SN - 1570-7873
SN - 1572-9184
VL - 12
IS - 1
SP - 111
EP - 125
PB - Springer
CY - Dordrecht
ER -
TY - THES
A1 - Trapp, Matthias
T1 - Analysis and exploration of virtual 3D city models using 3D information lenses
N2 - This thesis addresses real-time rendering techniques for 3D information lenses based on the focus & context metaphor. It analyzes, conceives, implements, and reviews its applicability to objects and structures of virtual 3D city models. In contrast to digital terrain models, the application of focus & context visualization to virtual 3D city models is barely researched. However, the purposeful visualization of contextual data of is extreme importance for the interactive exploration and analysis of this field. Programmable hardware enables the implementation of new lens techniques, that allow the augmentation of the perceptive and cognitive quality of the visualization compared to classical perspective projections. A set of 3D information lenses is integrated into a 3D scene-graph system: • Occlusion lenses modify the appearance of virtual 3D city model objects to resolve their occlusion and consequently facilitate the navigation. • Best-view lenses display city model objects in a priority-based manner and mediate their meta information. Thus, they support exploration and navigation of virtual 3D city models. • Color and deformation lenses modify the appearance and geometry of 3D city models to facilitate their perception. The presented techniques for 3D information lenses and their application to virtual 3D city models clarify their potential for interactive visualization and form a base for further development.
N2 - Diese Diplomarbeit behandelt echtzeitfähige Renderingverfahren für 3D Informationslinsen, die auf der Fokus-&-Kontext-Metapher basieren. Im folgenden werden ihre Anwendbarkeit auf Objekte und Strukturen von virtuellen 3D-Stadtmodellen analysiert, konzipiert, implementiert und bewertet. Die Focus-&-Kontext-Visualisierung für virtuelle 3D-Stadtmodelle ist im Gegensatz zum Anwendungsbereich der 3D Geländemodelle kaum untersucht. Hier jedoch ist eine gezielte Visualisierung von kontextbezogenen Daten zu Objekten von großer Bedeutung für die interaktive Exploration und Analyse. Programmierbare Computerhardware erlaubt die Umsetzung neuer Linsen-Techniken, welche die Steigerung der perzeptorischen und kognitiven Qualität der Visualisierung im Vergleich zu klassischen perspektivischen Projektionen zum Ziel hat. Für eine Auswahl von 3D-Informationslinsen wird die Integration in ein 3D-Szenengraph-System durchgeführt: • Verdeckungslinsen modifizieren die Gestaltung von virtuellen 3D-Stadtmodell- Objekten, um deren Verdeckungen aufzulösen und somit die Navigation zu erleichtern. • Best-View Linsen zeigen Stadtmodell-Objekte in einer prioritätsdefinierten Weise und vermitteln Meta-Informationen virtueller 3D-Stadtmodelle. Sie unterstützen dadurch deren Exploration und Navigation. • Farb- und Deformationslinsen modifizieren die Gestaltung und die Geometrie von 3D-Stadtmodell-Bereichen, um deren Wahrnehmung zu steigern. Die in dieser Arbeit präsentierten Techniken für 3D Informationslinsen und die Anwendung auf virtuelle 3D Stadt-Modelle verdeutlichen deren Potenzial in der interaktiven Visualisierung und bilden eine Basis für Weiterentwicklungen.
KW - Virtuelles 3D Stadtmodell
KW - 3D Linsen
KW - Shader
KW - Echtzeitanwendung
KW - virtual 3D city model
KW - 3D lenses
KW - shader
KW - real-time application
Y1 - 2007
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-13930
ER -
TY - THES
A1 - Trapp, Matthias
T1 - Interactive rendering techniques for focus+context visualization of 3D geovirtual environments
T1 - Interaktive Rendering-Techniken für die Fokus-&-Kontext-Visualisierung von geovirtuellen 3D-Umgebungen
N2 - This thesis introduces a collection of new real-time rendering techniques and applications for focus+context visualization of interactive 3D geovirtual environments such as virtual 3D city and landscape models. These environments are generally characterized by a large number of objects and are of high complexity with respect to geometry and textures. For these reasons, their interactive 3D rendering represents a major challenge. Their 3D depiction implies a number of weaknesses such as occlusions, cluttered image contents, and partial screen-space usage. To overcome these limitations and, thus, to facilitate the effective communication of geo-information, principles of focus+context visualization can be used for the design of real-time 3D rendering techniques for 3D geovirtual environments (see Figure). In general, detailed views of a 3D geovirtual environment are combined seamlessly with abstracted views of the context within a single image. To perform the real-time image synthesis required for interactive visualization, dedicated parallel processors (GPUs) for rasterization of computer graphics primitives are used. For this purpose, the design and implementation of appropriate data structures and rendering pipelines are necessary. The contribution of this work comprises the following five real-time rendering methods: • The rendering technique for 3D generalization lenses enables the combination of different 3D city geometries (e.g., generalized versions of a 3D city model) in a single image in real time. The method is based on a generalized and fragment-precise clipping approach, which uses a compressible, raster-based data structure. It enables the combination of detailed views in the focus area with the representation of abstracted variants in the context area. • The rendering technique for the interactive visualization of dynamic raster data in 3D geovirtual environments facilitates the rendering of 2D surface lenses. It enables a flexible combination of different raster layers (e.g., aerial images or videos) using projective texturing for decoupling image and geometry data. Thus, various overlapping and nested 2D surface lenses of different contents can be visualized interactively. • The interactive rendering technique for image-based deformation of 3D geovirtual environments enables the real-time image synthesis of non-planar projections, such as cylindrical and spherical projections, as well as multi-focal 3D fisheye-lenses and the combination of planar and non-planar projections. • The rendering technique for view-dependent multi-perspective views of 3D geovirtual environments, based on the application of global deformations to the 3D scene geometry, can be used for synthesizing interactive panorama maps to combine detailed views close to the camera (focus) with abstract views in the background (context). This approach reduces occlusions, increases the usage the available screen space, and reduces the overload of image contents. • The object-based and image-based rendering techniques for highlighting objects and focus areas inside and outside the view frustum facilitate preattentive perception. The concepts and implementations of interactive image synthesis for focus+context visualization and their selected applications enable a more effective communication of spatial information, and provide building blocks for design and development of new applications and systems in the field of 3D geovirtual environments.
N2 - Die Darstellung immer komplexerer raumbezogener Information durch Geovisualisierung stellt die existierenden Technologien und den Menschen ständig vor neue Herausforderungen. In dieser Arbeit werden fünf neue, echtzeitfähige Renderingverfahren und darauf basierende Anwendungen für die Fokus-&-Kontext-Visualisierung von interaktiven geovirtuellen 3D-Umgebungen – wie virtuelle 3D-Stadt- und Landschaftsmodelle – vorgestellt. Die große Menge verschiedener darzustellender raumbezogener Information in 3D-Umgebungen führt oft zu einer hohen Anzahl unterschiedlicher Objekte und somit zu einer hohen Geometrie- und Texturkomplexität. In der Folge verlieren 3D-Darstellungen durch Verdeckungen, überladene Bildinhalte und eine geringe Ausnutzung des zur Verfügung stehenden Bildraumes an Informationswert. Um diese Beschränkungen zu kompensieren und somit die Kommunikation raumbezogener Information zu verbessern, kann das Prinzip der Fokus-&-Kontext-Visualisierung angewendet werden. Hierbei wird die für den Nutzer wesentliche Information als detaillierte Ansicht im Fokus mit abstrahierter Kontextinformation nahtlos miteinander kombiniert. Um das für die interaktive Visualisierung notwendige Echtzeit-Rendering durchzuführen, können spezialisierte Parallelprozessoren für die Rasterisierung von computergraphischen Primitiven (GPUs) verwendet werden. Dazu ist die Konzeption und Implementierung von geeigneten Datenstrukturen und Rendering-Pipelines notwendig. Der Beitrag dieser Arbeit umfasst die folgenden fünf Renderingverfahren. • Das Renderingverfahren für interaktive 3D-Generalisierungslinsen: Hierbei wird die Kombination unterschiedlicher 3D-Szenengeometrien, z. B. generalisierte Varianten eines 3DStadtmodells, in einem Bild ermöglicht. Das Verfahren basiert auf einem generalisierten Clipping-Ansatz, der es erlaubt, unter Verwendung einer komprimierbaren, rasterbasierten Datenstruktur beliebige Bereiche einer 3D-Szene freizustellen bzw. zu kappen. Somit lässt sich eine Kombination von detaillierten Ansichten im Fokusbereich mit der Darstellung einer abstrahierten Variante im Kontextbereich implementieren. • Das Renderingverfahren zur Visualisierung von dynamischen Raster-Daten in geovirtuellen 3D-Umgebungen zur Darstellung von 2D-Oberflächenlinsen: Die Verwendung von projektiven Texturen zur Entkoppelung von Bild- und Geometriedaten ermöglicht eine flexible Kombination verschiedener Rasterebenen (z.B. Luftbilder oder Videos). Somit können verschiedene überlappende sowie verschachtelte 2D-Oberflächenlinsen mit unterschiedlichen Dateninhalten interaktiv visualisiert werden. • Das Renderingverfahren zur bildbasierten Deformation von geovirtuellen 3D-Umgebungen: Neben der interaktiven Bildsynthese von nicht-planaren Projektionen, wie beispielsweise zylindrischen oder sphärischen Panoramen, lassen sich mit diesem Verfahren multifokale 3D-Fischaugen-Linsen erzeugen sowie planare und nicht-planare Projektionen miteinander kombinieren. • Das Renderingverfahren für die Generierung von sichtabhängigen multiperspektivischen Ansichten von geovirtuellen 3D-Umgebungen: Das Verfahren basiert auf globalen Deformationen der 3D-Szenengeometrie und kann zur Erstellung von interaktiven 3D-Panoramakarten verwendet werden, welche beispielsweise detaillierte Absichten nahe der virtuellen Kamera (Fokus) mit abstrakten Ansichten im Hintergrund (Kontext) kombinieren. Dieser Ansatz reduziert Verdeckungen, nutzt den zur Verfügung stehenden Bildraum in verbesserter Weise aus und reduziert das Überladen von Bildinhalten. • Objekt-und bildbasierte Renderingverfahren für die Hervorhebung von Fokus-Objekten und Fokus-Bereichen innerhalb und außerhalb des sichtbaren Bildausschnitts, um die präattentive Wahrnehmung eines Benutzers besser zu unterstützen. Die in dieser Arbeit vorgestellten Konzepte, Entwürfe und Implementierungen von interaktiven Renderingverfahren zur Fokus-&-Kontext-Visualisierung sowie deren ausgewählte Anwendungen ermöglichen eine effektivere Kommunikation raumbezogener Information und repräsentieren softwaretechnische Bausteine für die Entwicklung neuer Anwendungen und Systeme im Bereich der geovirtuellen 3D-Umgebungen.
KW - 3D Computer Grafik
KW - Interaktives Rendering
KW - Fokus-&-Kontext Visualisierung
KW - 3D Computer Graphics
KW - Interactive Rendering
KW - Focus+Context Visualization
Y1 - 2013
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66824
ER -
TY - JOUR
A1 - Tran, Son Cao
A1 - Pontelli, Enrico
A1 - Balduccini, Marcello
A1 - Schaub, Torsten
T1 - Answer set planning
BT - a survey
JF - Theory and practice of logic programming
N2 - Answer Set Planning refers to the use of Answer Set Programming (ASP) to compute plans, that is, solutions to planning problems, that transform a given state of the world to another state. The development of efficient and scalable answer set solvers has provided a significant boost to the development of ASP-based planning systems. This paper surveys the progress made during the last two and a half decades in the area of answer set planning, from its foundations to its use in challenging planning domains. The survey explores the advantages and disadvantages of answer set planning. It also discusses typical applications of answer set planning and presents a set of challenges for future research.
KW - planning
KW - knowledge representation and reasoning
KW - logic programming
Y1 - 2022
U6 - https://doi.org/10.1017/S1471068422000072
SN - 1471-0684
SN - 1475-3081
PB - Cambridge University Press
CY - New York
ER -
TY - JOUR
A1 - Tiwari, Abhishek
A1 - Prakash, Jyoti
A1 - Groß, Sascha
A1 - Hammer, Christian
T1 - A large scale analysis of Android
BT - Web hybridization
JF - The journal of systems and software
N2 - Many Android applications embed webpages via WebView components and execute JavaScript code within Android. Hybrid applications leverage dedicated APIs to load a resource and render it in a WebView. Furthermore, Android objects can be shared with the JavaScript world. However, bridging the interfaces of the Android and JavaScript world might also incur severe security threats: Potentially untrusted webpages and their JavaScript might interfere with the Android environment and its access to native features.
No general analysis is currently available to assess the implications of such hybrid apps bridging the two worlds. To understand the semantics and effects of hybrid apps, we perform a large-scale study on the usage of the hybridization APIs in the wild. We analyze and categorize the parameters to hybridization APIs for 7,500 randomly selected and the 196 most popular applications from the Google Playstore as well as 1000 malware samples. Our results advance the general understanding of hybrid applications, as well as implications for potential program analyses, and the current security situation: We discovered thousands of flows of sensitive data from Android to JavaScript, the vast majority of which could flow to potentially untrustworthy code. Our analysis identified numerous web pages embedding vulnerabilities, which we exemplarily exploited. Additionally, we discovered a multitude of applications in which potentially untrusted JavaScript code may interfere with (trusted) Android objects, both in benign and malign applications.
KW - Android hybrid apps
KW - static analysis
KW - information flow control
Y1 - 2020
U6 - https://doi.org/10.1016/j.jss.2020.110775
SN - 0164-1212
SN - 1873-1228
VL - 170
PB - Elsevier
CY - New York
ER -
TY - THES
A1 - Tiwari, Abhishek
T1 - Enhancing Users’ Privacy: Static Resolution of the Dynamic Properties of Android
N2 - The usage of mobile devices is rapidly growing with Android being the most prevalent mobile operating system. Thanks to the vast variety of mobile applications, users are preferring smartphones over desktops for day to day tasks like Internet surfing. Consequently, smartphones store a plenitude of sensitive data. This data together with the high values of smartphones make them an attractive target for device/data theft (thieves/malicious applications).
Unfortunately, state-of-the-art anti-theft solutions do not work if they do not have an active network connection, e.g., if the SIM card was removed from the device. In the majority of these cases, device owners permanently lose their smartphone together with their personal data, which is even worse.
Apart from that malevolent applications perform malicious activities to steal sensitive information from smartphones. Recent research considered static program analysis to detect dangerous data leaks. These analyses work well for data leaks due to inter-component communication, but suffer from shortcomings for inter-app communication with respect to precision, soundness, and scalability.
This thesis focuses on enhancing users' privacy on Android against physical device loss/theft and (un)intentional data leaks. It presents three novel frameworks: (1) ThiefTrap, an anti-theft framework for Android, (2) IIFA, a modular inter-app intent information flow analysis of Android applications, and (3) PIAnalyzer, a precise approach for PendingIntent vulnerability analysis.
ThiefTrap is based on a novel concept of an anti-theft honeypot account that protects the owner's data while preventing a thief from resetting the device.
We implemented the proposed scheme and evaluated it through an empirical user study with 35 participants. In this study, the owner's data could be protected, recovered, and anti-theft functionality could be performed unnoticed from the thief in all cases.
IIFA proposes a novel approach for Android's inter-component/inter-app communication (ICC/IAC) analysis. Our main contribution is the first fully automatic, sound, and precise ICC/IAC information flow analysis that is scalable for realistic apps due to modularity, avoiding combinatorial explosion: Our approach determines communicating apps using short summaries rather than inlining intent calls between components and apps, which requires simultaneously analyzing all apps installed on a device.
We evaluate IIFA in terms of precision, recall, and demonstrate its scalability to a large corpus of real-world apps. IIFA reports 62 problematic ICC-/IAC-related information flows via two or more apps/components.
PIAnalyzer proposes a novel approach to analyze PendingIntent related vulnerabilities. PendingIntents are a powerful and universal feature of Android for inter-component communication. We empirically evaluate PIAnalyzer on a set of 1000 randomly selected applications and find 1358 insecure usages of PendingIntents, including 70 severe vulnerabilities.
N2 - Die Nutzung von mobilen Geräten nimmt rasant zu, wobei Android das häufigste mobile Betriebssystem ist. Dank der Vielzahl an mobilen Anwendungen bevorzugen Benutzer Smartphones gegenüber Desktops für alltägliche Aufgaben wie das Surfen im Internet. Folglich speichern Smartphones eine Vielzahl sensibler Daten. Diese Daten zusammen mit den hohen Werten von Smartphones machen sie zu einem attraktiven Ziel für Geräte/Datendiebstahl (Diebe/bösartige Anwendungen).
Leider funktionieren moderne Diebstahlsicherungslösungen nicht, wenn sie keine aktive Netzwerkverbindung haben, z. B. wenn die SIM-Karte aus dem Gerät entnommen wurde. In den meisten Fällen verlieren Gerätebesitzer ihr Smartphone dauerhaft zusammen mit ihren persönlichen Daten, was noch schlimmer ist.
Abgesehen davon gibt es bösartige Anwendungen, die schädliche Aktivitäten ausführen, um vertrauliche Informationen von Smartphones zu stehlen. Kürzlich durchgeführte Untersuchungen berücksichtigten die statische Programmanalyse zur Erkennung gefährlicher Datenlecks. Diese Analysen eignen sich gut für Datenlecks aufgrund der Kommunikation zwischen Komponenten, weisen jedoch hinsichtlich der Präzision, Zuverlässigkeit und Skalierbarkeit Nachteile für die Kommunikation zwischen Apps auf.
Diese Dissertation konzentriert sich auf die Verbesserung der Privatsphäre der Benutzer auf Android gegen Verlust/Diebstahl von physischen Geräten und (un)vorsätzlichen Datenverlust. Es werden drei neuartige Frameworks vorgestellt: (1) ThiefTrap, ein Anti-Diebstahl-Framework für Android, (2) IIFA, eine modulare Inter-App Analyse des Informationsflusses von Android Anwendungen, und (3) PIAnalyzer, ein präziser Ansatz für PendingIntent Schwachstellenanalyse.
ThiefTrap basiert auf einem neuartigen Konzept eines Diebstahlschutzkontos, das die Daten des Besitzers schützt und verhindert, dass ein Dieb das Gerät zurücksetzt. Wir haben das vorgeschlagene Schema implementiert und durch eine empirische Anwenderstudie mit 35 Teilnehmern ausgewertet. In dieser Studie könnten die Daten des Besitzers geschützt und wiederhergestellt werden, und die Diebstahlsicherungsfunktion konnte in jedem Fall unbemerkt vom Dieb ausgeführt werden.
IIFA schlägt einen neuen Ansatz für die Analyse von Komponenten zwischen Komponenten/ Inter-App Kommunikation (ICC/IAC) von Android vor. Unser Hauptbeitrag ist die erste vollautomatische, solide und präzise ICC/IAC Informationsflussanalyse, die aufgrund ihrer Modularität für realistische Apps skalierbar ist und eine kombinatorische Explosion vermeidet: Unser Ansatz bestimmt, dass Apps über kurze Zusammenfassungen kommuniziert werden, anstatt Absichtsaufrufe zwischen Komponenten zu verwenden und Apps, bei denen gleichzeitig alle auf einem Gerät installierten Apps analysiert werden müssen. Wir bewerten IIFA in Bezug auf Präzision, Rückruf und demonstrieren seine Skalierbarkeit für einen großen Korpus realer Apps. IIFA meldet 62 problematische ICC- / IAC-bezogene Informationsflüsse über zwei oder mehr Apps / Komponenten.
PIAnalyzer schlägt einen neuen Ansatz vor, um Schwachstellen im Zusammenhang mit PendingIntent zu analysieren. PendingIntents nutzen eine leistungsstarke und universelle Funktion von Android für die Kommunikation zwischen Komponenten. Wir evaluieren PIAnalyzer empirisch an einem Satz von 1000 zufällig ausgewählten Anwendungen und finden 1358 unsichere Verwendungen von PendingIntents, einschließlich 70 schwerwiegender Schwachstellen.
KW - Android Security
KW - Static Analysis
KW - Privacy Protection
Y1 - 2019
ER -
TY - JOUR
A1 - Thon, Ingo
A1 - Landwehr, Niels
A1 - De Raedt, Luc
T1 - Stochastic relational processes efficient inference and applications
JF - Machine learning
N2 - One of the goals of artificial intelligence is to develop agents that learn and act in complex environments. Realistic environments typically feature a variable number of objects, relations amongst them, and non-deterministic transition behavior. While standard probabilistic sequence models provide efficient inference and learning techniques for sequential data, they typically cannot fully capture the relational complexity. On the other hand, statistical relational learning techniques are often too inefficient to cope with complex sequential data. In this paper, we introduce a simple model that occupies an intermediate position in this expressiveness/efficiency trade-off. It is based on CP-logic (Causal Probabilistic Logic), an expressive probabilistic logic for modeling causality. However, by specializing CP-logic to represent a probability distribution over sequences of relational state descriptions and employing a Markov assumption, inference and learning become more tractable and effective. Specifically, we show how to solve part of the inference and learning problems directly at the first-order level, while transforming the remaining part into the problem of computing all satisfying assignments for a Boolean formula in a binary decision diagram. We experimentally validate that the resulting technique is able to handle probabilistic relational domains with a substantial number of objects and relations.
KW - Statistical relational learning
KW - Stochastic relational process
KW - Markov processes
KW - Time series
KW - CP-Logic
Y1 - 2011
U6 - https://doi.org/10.1007/s10994-010-5213-8
SN - 0885-6125
VL - 82
IS - 2
SP - 239
EP - 272
PB - Springer
CY - Dordrecht
ER -
TY - THES
A1 - Thomas, Marco
T1 - Informatische Modellbildung : modellieren von Modellen als ein zentrales Element der Informatik für den allgemeinbildenden Schulunterricht
Y1 - 2002
ER -
TY - JOUR
A1 - Thomas, Ivonne
T1 - Reliable digital identities for SOA and the Web
Y1 - 2010
SN - 978-3-86956-036-6
ER -
TY - JOUR
A1 - Thienen, Julia von
A1 - Noweski, Christine
A1 - Rauth, Ingo
A1 - Meinel, Christoph
A1 - Lange, Sabine
T1 - If you want to know who are, tell me where you are : the importance of places
Y1 - 2012
ER -
TY - JOUR
A1 - Thienen, Julia von
A1 - Noweski, Christine
A1 - Meinel, Christoph
A1 - Rauth, Ingo
T1 - The co-evolution of theory and practice in design thinking - or - "Mind the oddness trap!"
Y1 - 2011
SN - 978-3-642-13756-3
ER -
TY - JOUR
A1 - Thienen, Julia von
A1 - Noweski, Christine
A1 - Meinel, Christoph
A1 - Lang, Sabine
A1 - Nicolai, Claudia
A1 - Bartz, Andreas
T1 - What can design thinking learn from behavior group theraphy?
Y1 - 2012
SN - 978-3-642-31990-7
ER -
TY - JOUR
A1 - Thielscher, Michael
A1 - Schaub, Torsten
T1 - Default reasoning by deductive planning
Y1 - 1995
ER -
TY - THES
A1 - Thiele, Sven
T1 - Modeling biological systems with Answer Set Programming
T1 - Modellierung biologischer Systeme mit Answer Set Programming
N2 - Biology has made great progress in identifying and measuring the building blocks of life. The availability of high-throughput methods in molecular biology has dramatically accelerated the growth of biological knowledge for various organisms. The advancements in genomic, proteomic and metabolomic technologies allow for constructing complex models of biological systems. An increasing number of biological repositories is available on the web, incorporating thousands of biochemical reactions and genetic regulations. Systems Biology is a recent research trend in life science, which fosters a systemic view on biology. In Systems Biology one is interested in integrating the knowledge from all these different sources into models that capture the interaction of these entities. By studying these models one wants to understand the emerging properties of the whole system, such as robustness. However, both measurements as well as biological networks are prone to considerable incompleteness, heterogeneity and mutual inconsistency, which makes it highly non-trivial to draw biologically meaningful conclusions in an automated way. Therefore, we want to promote Answer Set Programming (ASP) as a tool for discrete modeling in Systems Biology. ASP is a declarative problem solving paradigm, in which a problem is encoded as a logic program such that its answer sets represent solutions to the problem. ASP has intrinsic features to cope with incompleteness, offers a rich modeling language and highly efficient solving technology. We present ASP solutions, for the analysis of genetic regulatory networks, determining consistency with observed measurements and identifying minimal causes for inconsistency. We extend this approach for computing minimal repairs on model and data that restore consistency. This method allows for predicting unobserved data even in case of inconsistency. Further, we present an ASP approach to metabolic network expansion. This approach exploits the easy characterization of reachability in ASP and its various reasoning methods, to explore the biosynthetic capabilities of metabolic reaction networks and generate hypotheses for extending the network. Finally, we present the BioASP library, a Python library which encapsulates our ASP solutions into the imperative programming paradigm. The library allows for an easy integration of ASP solution into system rich environments, as they exist in Systems Biology.
N2 - In den letzten Jahren wurden große Fortschritte bei der Identifikation und Messung der Bausteine des Lebens gemacht. Die Verfügbarkeit von Hochdurchsatzverfahren in der Molekularbiology hat das Anwachsen unseres biologischen Wissens dramatisch beschleunigt. Durch die technische Fortschritte in Genomic, Proteomic und Metabolomic wurde die Konstruktion komplexer Modelle biologischer Systeme ermöglicht. Immer mehr biologische Datenbanken sind über das Internet verfügbar, sie enthalten tausende Daten biochemischer Reaktionen und genetischer Regulation. System Biologie ist ein junger Forschungszweig der Biologie, der versucht Biologische Systeme in ihrer Ganzheit zu erforschen. Dabei ist man daran interessiert möglichst viel Wissen aus den unterschiedlichsten Bereichen in ein Modell zu aggregieren, welches das Zusammenwirken der verschiedensten Komponenten nachbildet. Durch das Studium derartiger Modelle erhofft man sich ein Verständnis der aufbauenden Eigenschaften, wie zum Beispiel Robustheit, des Systems zu erlangen. Es stellt sich jedoch die Problematik, das sowohl die biologischen Modelle als auch die verfügbaren Messwerte, oft unvollständig, miteinander unvereinbar oder fehlerhaft sind. All dies macht es schwierig biologisch sinnvolle Schlussfolgerungen zu ziehen. Daher, möchten wir in dieser Arbeit Antwortmengen Programmierung (engl. Answer Set Programming; ASP) als Werkzeug zur diskreten Modellierung system biologischer Probleme vorschlagen. ASP verfügt über eingebaute Eigenschaften zum Umgang mit unvollständiger Information, eine reichhaltige Modellierungssprache und hocheffiziente Berechnungstechniken. Wir präsentieren ASP Lösungen zur Analyse von Netzwerken genetischer Regulierungen, zur Prüfung der Konsistenz mit gemessene Daten, und zur Identifikation von Gründen für Inkonsistenz. Diesen Ansatz erweitern wir um die Möglichkeit zur Berechnung minimaler Reparaturen an Modell und Daten, welche Konsistenz erzeugen. Mithilfe dieser Methode werden wir in die Lage versetzt, auch im Fall von Inkonsistenz, noch ungemessene Daten vorherzusagen. Weiterhin, präsentieren wir einen ASP Ansatz zur Analyse metabolischer Netzwerke. Bei diesem Ansatz, nutzen wir zum einen aus das sich Erreichbarkeit mit ASP leicht spezifizieren lässt und das ASP mehrere mächtige Methoden zur Schlussfolgerung bereitstellt, welche sich auch kombiniert lassen. Dadurch wird es möglich die Synthese Möglichkeiten eines Metabolischen Netzwerks zu erforschen und Hypothesen für Erweiterungen des metabolischen Netzwerks zu berechnen. Zu guter Letzt, präsentieren wir die BioASP Softwarebibliothek. Die BioASP-Bibliothek kapselt unsere ASP Lösungen in das imperative Programmierparadigma und vereinfacht eine Integration von ASP Lösungen in heterogene Betriebsumgebungen, wie sie in der System Biologie vorherrschen.
KW - Antwortmengen Programmierung
KW - System Biologie
KW - Inkonsistenz
KW - Unvollständigkeit
KW - Reparatur
KW - answer set programming
KW - systems biology
KW - inconsistency
KW - incompleteness
KW - repair
Y1 - 2011
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59383
ER -
TY - JOUR
A1 - Teske, Daniel
T1 - Geocoder accuracy ranking
JF - Process design for natural scientists: an agile model-driven approach
N2 - Finding an address on a map is sometimes tricky: the chosen map application may be unfamiliar with the enclosed region. There are several geocoders on the market, they have different databases and algorithms to compute the query. Consequently, the geocoding results differ in their quality. Fortunately the geocoders provide a rich set of metadata. The workflow described in this paper compares this metadata with the aim to find out which geocoder is offering the best-fitting coordinate for a given address.
Y1 - 2014
SN - 978-3-662-45005-5
SN - 1865-0929
IS - 500
SP - 161
EP - 174
PB - Springer
CY - Berlin
ER -
TY - BOOK
A1 - Tepoyan, Liparit
T1 - The Mixed problem for a degenerate operator equation
T3 - Preprint / Universität Potsdam, Institut für Mathematik, Arbeitsgruppe Partiell
Y1 - 2008
SN - 1437-739X
PB - Univ.
CY - Potsdam
ER -
TY - BOOK
A1 - Tepoyan, Liparit
T1 - The Neumann problem for a degenerate operator equation
T3 - Preprint / Universität Potsdam, Institut für Mathematik, Arbeitsgruppe Partiell
Y1 - 2004
SN - 1437-739X
PB - Univ.
CY - Potsdam
ER -
TY - BOOK
A1 - Tepoyan, Liparit
T1 - Degenerated operator equations og higher order
T3 - Preprint / Universität Potsdam, Institut für Mathematik, Arbeitsgruppe Partiell
Y1 - 2000
SN - 1437-739X
PB - Univ.
CY - Potsdam
ER -
TY - CHAP
A1 - Tavangarian, Djamshid
A1 - Schroeder, Ulrik
A1 - Igel, Christoph
A1 - Magenheim, Johannes
A1 - Kundisch, Dennis
A1 - Beutner, Marc
A1 - Herrmann, Philipp
A1 - Whittaker, Michael
A1 - Reinhardt, Wolfgang
A1 - Zoyke, Andrea
A1 - Elbeshausen, Stefanie
A1 - Griesbaum, Joachim
A1 - Koelle, Ralph
A1 - Kneiphoff, Anika Hanna
A1 - Mauch, Martina
A1 - Hübner, Sandra
A1 - Walter, Satjawan
A1 - Dittler, Ullrich
A1 - Baumann, Annette
A1 - Reeh, Lucas
A1 - Beuster, Liane
A1 - Elkina, Margarita
A1 - Fortenbacher, Albrecht
A1 - Kappe, Leonard
A1 - Merceron, Agathe
A1 - Pursian, Andreas
A1 - Schwarzrock, Sebastian
A1 - Wenzlaff, Boris
A1 - Hilse, Michael
A1 - Lucke, Ulrike
ED - Lucke, Ulrike
T1 - E-Learning Symposium 2012
BT - Aktuelle Anwendungen, innovative Prozesse und neueste Ergebnisse aus der E-Learning-Praxis ; Potsdam, 17. November 2012
N2 - Dieser Tagungsband beinhaltet die auf dem E-Learning Symposium 2012 an der Universität Potsdam vorgestellten Beiträge zu aktuellen Anwendungen, innovativen Prozesse und neuesten Ergebnissen im Themenbereich E-Learning. Lehrende, E-Learning-Praktiker und -Entscheider tauschten ihr Wissen über etablierte und geplante Konzepte im Zusammenhang mit dem Student-Life-Cycle aus. Der Schwerpunkt lag hierbei auf der unmittelbaren Unterstützung von Lehr- und Lernprozessen, auf Präsentation, Aktivierung und Kooperation durch Verwendung von neuen und etablierten Technologien.
KW - E-Learning
KW - Learning Analytics
KW - lebenslanges Lernen
KW - E-Learning
KW - Learning Analytics
KW - Life-Long Learning
Y1 - 2013
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62661
PB - Universitätsverlag Potsdam
CY - Potsdam
ER -
TY - JOUR
A1 - Tavakoli, Hamad
A1 - Alirezazadeh, Pendar
A1 - Hedayatipour, Ava
A1 - Nasib, A. H. Banijamali
A1 - Landwehr, Niels
T1 - Leaf image-based classification of some common bean cultivars using discriminative convolutional neural networks
JF - Computers and electronics in agriculture : COMPAG online ; an international journal
N2 - In recent years, many efforts have been made to apply image processing techniques for plant leaf identification. However, categorizing leaf images at the cultivar/variety level, because of the very low inter-class variability, is still a challenging task. In this research, we propose an automatic discriminative method based on convolutional neural networks (CNNs) for classifying 12 different cultivars of common beans that belong to three various species. We show that employing advanced loss functions, such as Additive Angular Margin Loss and Large Margin Cosine Loss, instead of the standard softmax loss function for the classification can yield better discrimination between classes and thereby mitigate the problem of low inter-class variability. The method was evaluated by classifying species (level I), cultivars from the same species (level II), and cultivars from different species (level III), based on images from the leaf foreside and backside. The results indicate that the performance of the classification algorithm on the leaf backside image dataset is superior. The maximum mean classification accuracies of 95.86, 91.37 and 86.87% were obtained at the levels I, II and III, respectively. The proposed method outperforms the previous relevant works and provides a reliable approach for plant cultivars identification.
KW - Bean
KW - Plant identification
KW - Digital image analysis
KW - VGG16
KW - Loss
KW - functions
Y1 - 2021
U6 - https://doi.org/10.1016/j.compag.2020.105935
SN - 0168-1699
SN - 1872-7107
VL - 181
PB - Elsevier
CY - Amsterdam [u.a.]
ER -
TY - JOUR
A1 - Tarnick, Steffen
T1 - Controllable self-checking checkers for conditional concurrent checking
Y1 - 1995
ER -
TY - THES
A1 - Tarnick, Steffen
T1 - Data compression techniques for concurrent error detection and built-in self test
Y1 - 1995
ER -
TY - JOUR
A1 - Tarnick, Steffen
T1 - Bounding error masking in linear output space compression schemes
Y1 - 1994
ER -
TY - JOUR
A1 - Tarnick, Steffen
T1 - Controllable self-checking checkers for conditional concurrent checking
Y1 - 1994
ER -
TY - BOOK
A1 - Tarkhanov, Nikolai Nikolaevich
T1 - Harmonic integrals on domains with edges
T3 - Preprint / Universität Potsdam, Institut für Mathematik, Arbeitsgruppe Partiell
Y1 - 2004
SN - 1437-739X
PB - Univ.
CY - Potsdam
ER -
TY - JOUR
A1 - Sysło, Maciej M.
A1 - Kwiatkowska, Anna Beata
T1 - Think logarithmically!
JF - KEYCIT 2014 - Key Competencies in Informatics and ICT
N2 - We discuss here a number of algorithmic topics which we
use in our teaching and in learning of mathematics and informatics to
illustrate and document the power of logarithm in designing very efficient
algorithms and computations – logarithmic thinking is one of the
most important key competencies for solving real world practical problems.
We demonstrate also how to introduce logarithm independently
of mathematical formalism using a conceptual model for reducing a
problem size by at least half. It is quite surprising that the idea, which
leads to logarithm, is present in Euclid’s algorithm described almost
2000 years before John Napier invented logarithm.
KW - Logarithm
KW - binary search
KW - binary representation
KW - exponentiation
KW - Euclid’s algorithm
KW - Fibonacci numbers
KW - divide and conquer
KW - complexity
Y1 - 2015
U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82923
SN - 1868-0844
SN - 2191-1940
IS - 7
SP - 371
EP - 380
PB - Universitätsverlag Potsdam
CY - Potsdam
ER -
TY - JOUR
A1 - Sugiyama, Masashi
A1 - Kawanabe, Motoaki
A1 - Müller, Klaus-Robert
T1 - Trading variance reduction with unbiasedness : the regularized subspace information criterion for robust model selection in kernel regression
N2 - A well-known result by Stein (1956) shows that in particular situations, biased estimators can yield better parameter estimates than their generally preferred unbiased counterparts. This letter follows the same spirit, as we will stabilize the unbiased generalization error estimates by regularization and finally obtain more robust model selection criteria for learning. We trade a small bias against a larger variance reduction, which has the beneficial effect of being more precise on a single training set. We focus on the subspace information criterion (SIC), which is an unbiased estimator of the expected generalization error measured by the reproducing kernel Hilbert space norm. SIC can be applied to the kernel regression, and it was shown in earlier experiments that a small regularization of SIC has a stabilization effect. However, it remained open how to appropriately determine the degree of regularization in SIC. In this article, we derive an unbiased estimator of the expected squared error, between SIC and the expected generalization error and propose determining the degree of regularization of SIC such that the estimator of the expected squared error is minimized. Computer simulations with artificial and real data sets illustrate that the proposed method works effectively for improving the precision of SIC, especially in the high-noise-level cases. We furthermore compare the proposed method to the original SIC, the cross-validation, and an empirical Bayesian method in ridge parameter selection, with good results
Y1 - 2004
SN - 0899-7667
ER -
TY - GEN
A1 - Stöpel, Christoph
A1 - Schubert, Wolfgang
A1 - Margaria-Steffen, Tiziana
T1 - Plug-ins und Dienste : Ansätze zu Bewältigung zeitvarianter Geschäftsprozesse
T2 - Preprint / Universität Potsdam, Institut für Informatik
Y1 - 2007
SN - 0946-7580
VL - 2007, 2
PB - Univ.
CY - Potsdam
ER -