Institut für Informatik und Computational Science
Refine
Year of publication
- 2011 (54) (remove)
Document Type
- Article (27)
- Doctoral Thesis (18)
- Monograph/Edited Volume (3)
- Other (2)
- Preprint (2)
- Habilitation Thesis (1)
- Moving Images (1)
Is part of the Bibliography
- yes (54)
Keywords
- Answer Set Programming (3)
- answer set programming (3)
- Antwortmengenprogrammierung (2)
- Tracking (2)
- Abstraktion (1)
- Accepting Grammars (1)
- Akzeptierende Grammatiken (1)
- Algorithmen (1)
- Algorithms (1)
- Answer set programming (1)
- Antwortmengen Programmierung (1)
- Asynchrone Schaltung (1)
- Automata systems (1)
- Beweistheorie (1)
- Bildverarbeitung (1)
- CP-Logic (1)
- CSC (1)
- CityGML (1)
- Code generation (1)
- Complex optimization (1)
- Computergrafik (1)
- Controlled Derivations (1)
- D-galactosamine (1)
- Decidability (1)
- Entwurfsmuster für SOA-Sicherheit (1)
- Entwurfsraumexploration (1)
- Extreme Model-Driven Development (1)
- FMC-QE (1)
- FPGA (1)
- Gesteuerte Ableitungen (1)
- Grammar Systems (1)
- Grammatiksysteme (1)
- Graphfärbung (1)
- Hardware-Software-Co-Design (1)
- Hierarchically configurable mask register (1)
- IT-Security (1)
- IT-Sicherheit (1)
- Incremental answer set programming (1)
- Inkonsistenz (1)
- Knowledge Representation and Reasoning (1)
- Knowledge representation (1)
- Komplexität (1)
- Komplexitätsbewältigung (1)
- L systems (1)
- Leftmost Derivations (1)
- Leistungsvorhersage (1)
- Linksableitungen (1)
- Localization (1)
- Logiksynthese (1)
- Markov processes (1)
- Masking of X-values (1)
- Meta-Programming (1)
- Model Driven Architecture (1)
- Model checking (1)
- Modell (1)
- Modell-driven Security (1)
- Modell-getriebene Sicherheit (1)
- Modellgetriebene Architektur (1)
- Nutzungsinteresse (1)
- Ontologie (1)
- Ontology (1)
- Operation problem (1)
- Parsing (1)
- Performance Prediction (1)
- Pre-RS Traceability (1)
- Preference Handling (1)
- Problemlösen (1)
- Process model analysis (1)
- Proof Theory (1)
- Prozess (1)
- Quantitative Modeling (1)
- Quantitative Modellierung (1)
- Queuing Theory (1)
- Reparatur (1)
- SOA Security Pattern (1)
- STG decomposition (1)
- STG-Dekomposition (1)
- Security Modelling (1)
- Semantic Web (1)
- Service-Orientierte Architekturen (1)
- Service-oriented Architectures (1)
- Sicherheitsmodellierung (1)
- Statistical relational learning (1)
- Stochastic relational process (1)
- System Biologie (1)
- Texturen (1)
- Theoretische Informatik (1)
- Time Augmented Petri Nets (1)
- Time series (1)
- Transformation (1)
- Unary languages (1)
- Unvollständigkeit (1)
- Usage Interest (1)
- Verification (1)
- Warteschlangentheorie (1)
- Web Sites (1)
- Webseite (1)
- Wireless Sensor Networks (1)
- Wissensrepräsentation und -verarbeitung (1)
- Zeitbehaftete Petri Netze (1)
- abstraction (1)
- acute liver failure (1)
- asynchronous circuit (1)
- behavioral abstraction (1)
- bioinformatics (1)
- block representation (1)
- cellular automata (1)
- complexity (1)
- computer graphics (1)
- consistency (1)
- consistency checking (1)
- consistency measures (1)
- cooperating systems (1)
- decidability questions (1)
- declarative problem solving (1)
- design space exploration (1)
- diagnosis (1)
- endothelin (1)
- endothelin-converting enzyme (1)
- finite model computation (1)
- formal languages (1)
- hardware-software-codesign (1)
- image processing (1)
- incompleteness (1)
- inconsistency (1)
- kidney cancer (1)
- logic synthesis (1)
- loop formulas (1)
- metabolism (1)
- metabolomics (1)
- metastasis (1)
- model (1)
- neighborhood (1)
- neutral endopeptidase (1)
- nichtlineare Projektionen (1)
- nonlinear projections (1)
- on-chip (1)
- process (1)
- process model alignment (1)
- quantum (1)
- repair (1)
- semantisches Netz (1)
- speed independence (1)
- stable model semantics (1)
- systems biology (1)
- textures (1)
- transformation (1)
- unfounded sets (1)
- virtual 3D city models (1)
- virtuelle 3D-Stadtmodelle (1)
Engineering of process-driven business applications can be supported by process modeling efforts in order to bridge the gap between business requirements and system specifications. However, diverging purposes of business process modeling initiatives have led to significant problems in aligning related models at different abstract levels and different perspectives. Checking the consistency of such corresponding models is a major challenge for process modeling theory and practice. In this paper, we take the inappropriateness of existing strict notions of behavioral equivalence as a starting point. Our contribution is a concept called behavioral profile that captures the essential behavioral constraints of a process model. We show that these profiles can be computed efficiently, i.e., in cubic time for sound free-choice Petri nets w.r.t. their number of places and transitions. We use behavioral profiles for the definition of a formal notion of consistency which is less sensitive to model projections than common criteria of behavioral equivalence and allows for quantifying deviation in a metric way. The derivation of behavioral profiles and the calculation of a degree of consistency have been implemented to demonstrate the applicability of our approach. We also report the findings from checking consistency between partially overlapping models of the SAP reference model.
Die öffentliche Verwaltung setzt seit mehreren Jahren E-Government-Anwendungssysteme ein, um ihre Verwaltungsprozesse intensiver mit moderner Informationstechnik zu unterstützen. Da die öffentliche Verwaltung in ihrem Handeln in besonderem Maße an Recht und Gesetz gebunden ist verstärkt und verbreitet sich der Zusammenhang zwischen den Gesetzen und Rechtsvorschriften einerseits und der zur Aufgabenunterstützung eingesetzten Informationstechnik andererseits. Aus Sicht der Softwaretechnik handelt es sich bei diesem Zusammenhang um eine spezielle Form der Verfolgbarkeit von Anforderungen (engl. Traceability), die so genannte Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (Pre-Requirements Specification Traceability, kurz Pre-RS Traceability), da sie Aspekte betrifft, die relevant sind, bevor die Anforderungen in eine Spezifikation eingeflossen sind (Ursprünge von Anforderungen). Der Ansatz dieser Arbeit leistet einen Beitrag zur Verfolgbarkeit im Vorfeld der Anforderungsspezifikation von E-Government-Anwendungssystemen. Er kombiniert dazu aktuelle Entwicklungen und Standards (insbesondere des World Wide Web Consortium und der Object Management Group) aus den Bereichen Verfolgbarkeit von Anforderungen, Semantic Web, Ontologiesprachen und modellgetriebener Softwareentwicklung. Der Lösungsansatz umfasst eine spezielle Ontologie des Verwaltungshandeln, die mit den Techniken, Methoden und Werkzeugen des Semantic Web eingesetzt wird, um in Texten von Rechtsvorschriften relevante Ursprünge von Anforderungen durch Annotationen mit einer definierten Semantik zu versehen. Darauf aufbauend wird das Ontology Definition Metamodel (ODM) verwendet, um die Annotationen als spezielle Individuen einer Ontologie auf Elemente der Unified Modeling Language (UML) abzubilden. Dadurch entsteht ein neuer Modelltyp Pre-Requirements Model (PRM), der das Vorfeld der Anforderungsspezifikation formalisiert. Modelle diesen Typs können auch verwendet werden, um Aspekte zu formalisieren die sich nicht oder nicht vollständig aus dem Text der Rechtsvorschrift ergeben. Weiterhin bietet das Modell die Möglichkeit zum Anschluss an die modellgetriebene Softwareentwicklung. In der Arbeit wird deshalb eine Erweiterung der Model Driven Architecture (MDA) vorgeschlagen. Zusätzlich zu den etablierten Modelltypen Computation Independent Model (CIM), Platform Independent Model (PIM) und Platform Specific Model (PSM) könnte der Einsatz des PRM Vorteile für die Verfolgbarkeit bringen. Wird die MDA mit dem PRM auf das Vorfeld der Anforderungsspezifikation ausgeweitet, kann eine Transformation des PRM in ein CIM als initiale Anforderungsspezifikation erfolgen, indem der MOF Query View Transformation Standard (QVT) eingesetzt wird. Als Teil des QVT-Standards ist die Aufzeichnung von Verfolgbarkeitsinformationen bei Modelltransformationen verbindlich. Um die semantische Lücke zwischen PRM und CIM zu überbrücken, erfolgt analog zum Einsatz des Plattformmodells (PM) in der PIM nach PSM Transformation der Einsatz spezieller Hilfsmodelle. Es kommen dafür die im Projekt "E-LoGo" an der Universität Potsdam entwickelten Referenzmodelle zum Einsatz. Durch die Aufzeichnung der Abbildung annotierter Textelemente auf Elemente im PRM und der Transformation der Elemente des PRM in Elemente des CIM kann durchgängige Verfolgbarkeit im Vorfeld der Anforderungsspezifikation erreicht werden. Der Ansatz basiert auf einer so genannten Verfolgbarkeitsdokumentation in Form verlinkter Hypertextdokumente, die mittels XSL-Stylesheet erzeugt wurden und eine Verbindung zur graphischen Darstellung des Diagramms (z. B. Anwendungsfall-, Klassendiagramm der UML) haben. Der Ansatz unterstützt die horizontale Verfolgbarkeit zwischen Elementen unterschiedlicher Modelle vorwärts- und rückwärtsgerichtet umfassend. Er bietet außerdem vertikale Verfolgbarkeit, die Elemente des gleichen Modells und verschiedener Modellversionen in Beziehung setzt. Über den offensichtlichen Nutzen einer durchgängigen Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (z. B. Analyse der Auswirkungen einer Gesetzesänderung, Berücksichtigung des vollständigen Kontextes einer Anforderung bei ihrer Priorisierung) hinausgehend, bietet diese Arbeit eine erste Ansatzmöglichkeit für eine Feedback-Schleife im Prozess der Gesetzgebung. Stehen beispielsweise mehrere gleichwertige Gestaltungsoptionen eines Gesetzes zur Auswahl, können die Auswirkungen jeder Option analysiert und der Aufwand ihrer Umsetzung in E-Government-Anwendungen als Auswahlkriterium berücksichtigt werden. Die am 16. März 2011 in Kraft getretene Änderung des NKRG schreibt eine solche Analyse des so genannten „Erfüllungsaufwands“ für Teilbereiche des Verwaltungshandelns bereits heute verbindlich vor. Für diese Analyse kann die vorliegende Arbeit einen Ansatz bieten, um zu fundierten Aussagen über den Änderungsaufwand eingesetzter E-Government-Anwendungssysteme zu kommen.
Secondary activation of the endothelin system is thought to be involved in toxic liver injury. This study tested the hypothesis that dual endothelin-converting enzyme / neutral endopeptidase blockade might: be able to attenuate acute toxic liver injury.
Male Sprague-Dawley rats were implanted with subcutaneous minipumps to deliver the novel compound SLV338 (10 mg/kg*d) or vehicle. Four days later they received two intraperitoneal injections of D-galactosamine (1.3 g/kg each) or vehicle at an interval of 12 hours. The animals were sacrificed 48 hours after the first injection.
Injection of D-galactosamine resulted in very severe liver injury, reflected by strongly elevated plasma liver enzymes, hepatic necrosis and inflammation, and a mortality rate of 42.9 %. SLV338 treatment did not show any significant effect on the extent of acute liver injury as judged from plasma parameters, hepatic histology and mortality. Plasma measurements of SLV338 confirmed adequate drug delivery. Plasma concentrations of big endothelin-1 and endothelin-1 were significantly elevated in animals with liver injury (5-fold and 62-fold, respectively). Plasma endothelin-1 was significantly correlated with several markers of liver injury. SLV338 completely prevented the rise of plasma big endothelin-1 (p<0.05) and markedly attenuated the rise of endothelin-1 (p = 0.055).
In conclusion, dual endothelin-converting enzyme / neutral endopeptidase blockade by SLV338 did not significantly attenuate D-galactosamine-induced acute liver injury, although it largely prevented the activation of the endothelin system. An evaluation of SLV338 in a less severe model of liver injury would be of interest, since very severe intoxication might not be relevantly amenable to pharmacological interventions.
Didaktik der Informatik
(2011)
We introduce an approach to detecting inconsistencies in large biological networks by using answer set programming. To this end, we build upon a recently proposed notion of consistency between biochemical/genetic reactions and high-throughput profiles of cell activity. We then present an approach based on answer set programming to check the consistency of large-scale data sets. Moreover, we extend this methodology to provide explanations for inconsistencies by determining minimal representations of conflicts. In practice, this can be used to identify unreliable data or to indicate missing reactions.
Design thinking research
(2011)