TY - CHAP A1 - Vladova, Gergana A1 - Bertheau, Clementine ED - de Witt, Claudia ED - Gloerfeld, Christina ED - Wrede, Silke Elisabeth T1 - Unter dem Zeichen Künstlicher Intelligenz BT - Berufe, Kompetenzen und Kompetenzvermittlung der Zukunft T2 - Künstliche Intelligenz in der Bildung N2 - Der Einsatz Künstlicher Intelligenz (KI) wird zunehmend relevant – sowohl in Berufen mit formalisierbaren Aufgaben als auch in Berufsfeldern, für deren Aufgaben Erfahrungswissen notwendig ist und situationsabhängig Entscheidungen getroffen werden, die mit folgenschweren Konsequenzen verbunden sein können. Um das Potenzial der Zusammenarbeit zwischen Mensch und KI auszuschöpfen, muss sich der Mensch entsprechend wappnen. Somit verändern sich die Kompetenzanforderungen an Mitarbeiter:innen auf allen Ebenen und an ihre Führungskräfte. Relevante Konzepte des lebenslangen Lernens und der betrieblichen Weiterbildung gewinnen durch den Einfluss der Technologie auch unter teilweise veränderten Lernbedingungen vermehrt an Bedeutung. Neben neuen technischen und Fachkompetenzen, sind für die Nutzung von und die Zusammenarbeit mit der neuen Technologie weitere Kompetenzen notwendig, um z. B. einschätzen zu können, wann die Arbeit der Maschine ethisch vertretbar, effektiv, verantwortungsvoll, fair, transparent und nachvollziehbar ist. Auch neue Tätigkeitsprofile entstehen und die beruflichen Rollen verändern sich entsprechend. Neben den Anforderungen, die die KI an Bildung und Kompetenzentwicklung stellt, wird sie weiterhin zunehmend zur Gestaltung von Lernumgebungen und für den Kompetenzaufbau im Beruf eingesetzt. Sie ist somit nicht nur der Auslöser von Veränderungen, sondern auch das Instrument, welches genutzt wird, um die Lehre zu unterstützen und individueller, abwechslungsreicher sowie zeit- und ortunabhängiger zu gestalten. Im Beitrag werden Chancen und Herausforderungen durch den Einsatz von KI für zwei Dimensionen diskutiert: die Transformationsprozesse in der Berufswelt und die Gestaltung von Lernprozessen. KW - Künstliche Intelligenz KW - Weiterbildung KW - Berufsbilder KW - Beruf KW - Kompetenzen Y1 - 2023 SN - 978-3-658-40078-1 SN - 978-3-658-40079-8 U6 - https://doi.org/10.1007/978-3-658-40079-8_19 SP - 393 EP - 410 PB - Springer VS CY - Wiesbaden ER - TY - THES A1 - Kunkel, Stefanie T1 - Green industry through industry 4.0? Expected and observed effects of digitalisation in industry for environmental sustainability T1 - Grüne Industrie durch Industrie 4.0? Erwartete und beobachtete Auswirkungen der Digitalisierung in der Industrie auf ökologische Nachhaltigkeit N2 - Digitalisation in industry – also called “Industry 4.0” – is seen by numerous actors as an opportunity to reduce the environmental impact of the industrial sector. The scientific assessments of the effects of digitalisation in industry on environmental sustainability, however, are ambivalent. This cumulative dissertation uses three empirical studies to examine the expected and observed effects of digitalisation in industry on environmental sustainability. The aim of this dissertation is to identify opportunities and risks of digitalisation at different system levels and to derive options for action in politics and industry for a more sustainable design of digitalisation in industry. I use an interdisciplinary, socio-technical approach and look at selected countries of the Global South (Study 1) and the example of China (all studies). In the first study (section 2, joint work with Marcel Matthess), I use qualitative content analysis to examine digital and industrial policies from seven different countries in Africa and Asia for expectations regarding the impact of digitalisation on sustainability and compare these with the potentials of digitalisation for sustainability in the respective country contexts. The analysis reveals that the documents express a wide range of vague expectations that relate more to positive indirect impacts of information and communication technology (ICT) use, such as improved energy efficiency and resource management, and less to negative direct impacts of ICT, such as electricity consumption through ICT. In the second study (section 3, joint work with Marcel Matthess, Grischa Beier and Bing Xue), I conduct and analyse interviews with 18 industry representatives of the electronics industry from Europe, Japan and China on digitalisation measures in supply chains using qualitative content analysis. I find that while there are positive expectations regarding the effects of digital technologies on supply chain sustainability, their actual use and observable effects are still limited. Interview partners can only provide few examples from their own companies which show that sustainability goals have already been pursued through digitalisation of the supply chain or where sustainability effects, such as resource savings, have been demonstrably achieved. In the third study (section 4, joint work with Peter Neuhäusler, Melissa Dachrodt and Marcel Matthess), I conduct an econometric panel data analysis. I examine the relationship between the degree of Industry 4.0, energy consumption and energy intensity in ten manufacturing sectors in China between 2006 and 2019. The results suggest that overall, there is no significant relationship between the degree of Industry 4.0 and energy consumption or energy intensity in manufacturing sectors in China. However, differences can be found in subgroups of sectors. I find a negative correlation of Industry 4.0 and energy intensity in highly digitalised sectors, indicating an efficiency-enhancing effect of Industry 4.0 in these sectors. On the other hand, there is a positive correlation of Industry 4.0 and energy consumption for sectors with low energy consumption, which could be explained by the fact that digitalisation, such as the automation of previously mainly labour-intensive sectors, requires energy and also induces growth effects. In the discussion section (section 6) of this dissertation, I use the classification scheme of the three levels macro, meso and micro, as well as of direct and indirect environmental effects to classify the empirical observations into opportunities and risks, for example, with regard to the probability of rebound effects of digitalisation at the three levels. I link the investigated actor perspectives (policy makers, industry representatives), statistical data and additional literature across the system levels and consider political economy aspects to suggest fields of action for more sustainable (digitalised) industries. The dissertation thus makes two overarching contributions to the academic and societal discourse. First, my three empirical studies expand the limited state of research at the interface between digitalisation in industry and sustainability, especially by considering selected countries in the Global South and the example of China. Secondly, exploring the topic through data and methods from different disciplinary contexts and taking a socio-technical point of view, enables an analysis of (path) dependencies, uncertainties, and interactions in the socio-technical system across different system levels, which have often not been sufficiently considered in previous studies. The dissertation thus aims to create a scientifically and practically relevant knowledge basis for a value-guided, sustainability-oriented design of digitalisation in industry. N2 - Die Digitalisierung der Industrie, auch „Industrie 4.0“ genannt, wird von zahlreichen Akteuren als Chance zur Reduktion der Umweltauswirkungen des industriellen Sektors betrachtet. Die wissenschaftlichen Bewertungen der Effekte der Digitalisierung der Industrie auf ökologische Nachhaltigkeit sind hingegen ambivalent. Diese kumulative Dissertation untersucht anhand von drei empirischen Studien die erwarteten und beobachteten Auswirkungen der Digitalisierung der Industrie auf ökologische Nachhaltigkeit. Ziel der Dissertation ist es, Chancen und Risiken der Digitalisierung auf verschiedenen System-Ebenen zu identifizieren und Handlungsoptionen in Politik und Industrie für eine nachhaltigere Gestaltung der Digitalisierung der Industrie abzuleiten. Ich nutze einen interdisziplinären, soziotechnischen Zugang und betrachte ausgewählte Länder des Globalen Südens (Studie 1) und das Beispiel Chinas (alle Studien). In der ersten Studie (Kapitel 2, gemeinsame Arbeit mit Marcel Matthess) untersuche ich mittels qualitativer Inhaltsanalyse Digital- und Industriestrategien aus sieben verschiedenen Ländern in Afrika und Asien auf politische Erwartungen hinsichtlich der Auswirkungen von Digitalisierung auf Nachhaltigkeit und vergleiche diese mit den erwartbaren Potenzialen der Digitalisierung für Nachhaltigkeit in den jeweiligen Länderkontexten. Die Analyse ergibt, dass die Dokumente ein breites Spektrum vager Erwartungen zum Ausdruck bringen, die sich eher auf positive indirekte Auswirkungen der Nutzung von Informations- und Kommunikationstechnologie (IKT), wie etwa auf höhere Energieeffizienz und ein verbessertes Ressourcenmanagement, und weniger auf negative direkte Auswirkungen der IKT, wie etwa auf den Stromverbrauch durch IKT, beziehen. In der zweiten Studie (Kapitel 3, gemeinsame Arbeit mit Marcel Matthess, Grischa Beier und Bing Xue) führe und analysiere ich mittels qualitativer Inhaltsanalyse Interviews mit 18 Industrie-Vertreter*innen der Elektronikindustrie aus Europa, Japan und China zu Maßnahmen der Digitalisierung in Lieferketten. Wir stellen fest, dass zwar positive Erwartungen hinsichtlich der Effekte digitaler Technologien für Nachhaltigkeit der Lieferkette bestehen, deren tatsächlicher Einsatz und beobachtete Effekte jedoch noch begrenzt sind. Interviewpartner*innen können nur wenige Beispiele aus den eigenen Unternehmen nennen, die zeigen, dass durch die Digitalisierung der Lieferkette bereits Nachhaltigkeitsziele verfolgt oder Nachhaltigkeits-Effekte, wie Ressourceneinsparungen, nachweisbar erzielt wurden. In der dritten Studie (Kapitel 4, gemeinsame Arbeit mit Peter Neuhäusler, Marcel Matthess und Melissa Dachrodt) führe ich eine ökonometrische Panel-Daten-Analyse durch. Ich untersuche den Zusammenhang zwischen dem Grad von Industrie 4.0 und dem Energieverbrauch sowie der Energieintensität in zehn Fertigungssektoren in China im Zeitraum zwischen 2006 und 2019. Die Ergebnisse deuten darauf hin, dass es insgesamt keinen signifikanten Zusammenhang zwischen dem Grad von Industrie 4.0 und dem Energieverbrauch bzw. der Energieintensität in Fertigungs-Sektoren in China gibt. Es können jedoch Unterschiede in Sub-Gruppen von Sektoren festgestellt werden. Ich stelle eine negative Korrelation von Industrie 4.0 und Energieintensität in hoch digitalisierten Sektoren fest, was auf einen Effizienz-steigernden Effekt von Industrie 4.0 hindeutet. Andererseits besteht eine positive Korrelation von Industrie 4.0 und Energieverbrauch für Sektoren mit niedrigem Energieverbrauch, was dadurch erklärt werden könnte, dass Digitalisierung, etwa die Automatisierung zuvor hauptsächlich arbeitsintensiver Sektoren, Energie erfordert und außerdem Wachstumseffekte hervorruft. Im Diskussionsteil (Kapitel 6) dieser Dissertation nutze ich das Ordnungsschema der drei Ebenen Makro, Meso und Mikro, sowie von direkten und indirekten Umwelteffekten für die Einordnung der empirischen Beobachtungen in Chancen und Risiken, etwa hinsichtlich der Wahrscheinlichkeit von Rebound-Effekten der Digitalisierung auf Mikro-, Meso- und Makro-Ebene. Ich verknüpfe die untersuchten Akteurs-Perspektiven (Politiker*innen, Industrievertreter*innen), statistischen Daten und zusätzliche Literatur über die System-Ebenen hinweg und berücksichtige dabei auch Gedanken der politischen Ökonomik, um Handlungsfelder für nachhaltige(re) digitalisierte Industrien abzuleiten. Die Dissertation leistet damit zwei übergeordnete Beiträge zum wissenschaftlichen und gesellschaftlichen Diskurs. Erstens erweitern meine drei empirischen Studien den begrenzten Forschungsstand an der Schnittstelle zwischen Digitalisierung in der Industrie und Nachhaltigkeit, insbesondere durch Berücksichtigung ausgewählter Länder im Globalen Süden und des Beispiels Chinas. Zweitens ermöglicht die Erforschung des Themas durch Daten und Methoden aus unterschiedlichen disziplinären Kontexten und unter Einnahme eines soziotechnischen Standpunkts, eine Analyse von (Pfad-)Abhängigkeiten und Unsicherheiten im soziotechnischen System über verschiedene System-Ebenen hinweg, die in bisherigen Studien häufig nicht ausreichend berücksichtigt wurden. Die Dissertation soll so eine wissenschaftlich und praktisch relevante Wissensbasis für eine werte-gleitete, auf Nachhaltigkeit ausgerichtete Gestaltung der Digitalisierung der Industrie schaffen. KW - digitalization KW - sustainable industrial development KW - Industry 4.0 KW - information and communication technologies KW - sustainable supply chain management KW - Global Value Chains KW - environmental upgrading KW - Artificial Intelligence KW - Big Data Analytics KW - Digital Rebound KW - China KW - patent KW - robot KW - sustainability KW - Künstliche Intelligenz KW - Big Data Analytics KW - China KW - Digital Rebound KW - Globale Wertschöpfungsketten KW - Industrie 4.0 KW - Digitalisierung KW - ökologisches Upgrading KW - Informations- und Kommunikationstechnologien KW - Patent KW - Roboter KW - Nachhaltigkeit KW - nachhaltige industrielle Entwicklung KW - nachhaltiges Lieferkettenmanagement KW - Industrial Internet of Things KW - Industrielles Internet der Dinge Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-613954 ER - TY - JOUR A1 - Wulff, Peter A1 - Mientus, Lukas A1 - Nowak, Anna A1 - Borowski, Andreas T1 - KI-basierte Auswertung von schriftlichen Unterrichtsreflexionen im Fach Physik und automatisierte Rückmeldung JF - PSI-Potsdam: Ergebnisbericht zu den Aktivitäten im Rahmen der Qualitätsoffensive Lehrerbildung (2019-2023) (Potsdamer Beiträge zur Lehrerbildung und Bildungsforschung ; 3) N2 - Für die Entwicklung professioneller Handlungskompetenzen angehender Lehrkräfte stellt die Unterrichtsreflexion ein wichtiges Instrument dar, um Theoriewissen und Praxiserfahrungen in Beziehung zu setzen. Die Auswertung von Unterrichtsreflexionen und eine entsprechende Rückmeldung stellt Forschende und Dozierende allerdings vor praktische wie theoretische Herausforderungen. Im Kontext der Forschung zu Künstlicher Intelligenz (KI) entwickelte Methoden bieten hier neue Potenziale. Der Beitrag stellt überblicksartig zwei Teilstudien vor, die mit Hilfe von KI-Methoden wie dem maschinellen Lernen untersuchen, inwieweit eine Auswertung von Unterrichtsreflexionen angehender Physiklehrkräfte auf Basis eines theoretisch abgeleiteten Reflexionsmodells und die automatisierte Rückmeldung hierzu möglich sind. Dabei wurden unterschiedliche Ansätze des maschinellen Lernens verwendet, um modellbasierte Klassifikation und Exploration von Themen in Unterrichtsreflexionen umzusetzen. Die Genauigkeit der Ergebnisse wurde vor allem durch sog. Große Sprachmodelle gesteigert, die auch den Transfer auf andere Standorte und Fächer ermöglichen. Für die fachdidaktische Forschung bedeuten sie jedoch wiederum neue Herausforderungen, wie etwa systematische Verzerrungen und Intransparenz von Entscheidungen. Dennoch empfehlen wir, die Potenziale der KI-basierten Methoden gründlicher zu erforschen und konsequent in der Praxis (etwa in Form von Webanwendungen) zu implementieren. N2 - For the development of professional competencies in pre-service teachers, reflection on teaching experiences is proposed as an important tool to link theoretical knowledge and practice. However, evaluating reflections and providing appropriate feedback poses challenges of both theoretical and practical nature to researchers and educators. Methods associated with artificial intelligence research offer new potentials to discover patterns in complex datasets like reflections, as well as to evaluate these automatically and create feedback. In this article, we provide an overview of two sub-studies that investigate, using artificial intelligence methods such as machine learning, to what extent an evaluation of reflections of pre-service physics teachers based on a theoretically derived reflection model and automated feedback are possible. Across the sub-studies, different machine learning approaches were used to implement model-based classification and exploration of topics in reflections. Large language models in particular increase the accuracy of the results and allow for transfer to other locations and disciplines. However, entirely new challenges arise for educational research in relation to large language models, such as systematic biases and lack of transparency in decisions. Despite these uncertainties, we recommend further exploring the potentials of artificial intelligence-based methods and implementing them consistently in practice (for example, in the form of web applications). KW - Künstliche Intelligenz KW - Maschinelles Lernen KW - Natural Language Processing KW - Reflexion KW - Professionalisierung KW - artificial intelligence KW - machine learning KW - natural language processing KW - reflexion KW - professionalization Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-616363 SN - 978-3-86956-568-2 SN - 2626-3556 SN - 2626-4722 IS - 3 SP - 103 EP - 115 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Quinzan, Francesco T1 - Combinatorial problems and scalability in artificial intelligence N2 - Modern datasets often exhibit diverse, feature-rich, unstructured data, and they are massive in size. This is the case of social networks, human genome, and e-commerce databases. As Artificial Intelligence (AI) systems are increasingly used to detect pattern in data and predict future outcome, there are growing concerns on their ability to process large amounts of data. Motivated by these concerns, we study the problem of designing AI systems that are scalable to very large and heterogeneous data-sets. Many AI systems require to solve combinatorial optimization problems in their course of action. These optimization problems are typically NP-hard, and they may exhibit additional side constraints. However, the underlying objective functions often exhibit additional properties. These properties can be exploited to design suitable optimization algorithms. One of these properties is the well-studied notion of submodularity, which captures diminishing returns. Submodularity is often found in real-world applications. Furthermore, many relevant applications exhibit generalizations of this property. In this thesis, we propose new scalable optimization algorithms for combinatorial problems with diminishing returns. Specifically, we focus on three problems, the Maximum Entropy Sampling problem, Video Summarization, and Feature Selection. For each problem, we propose new algorithms that work at scale. These algorithms are based on a variety of techniques, such as forward step-wise selection and adaptive sampling. Our proposed algorithms yield strong approximation guarantees, and the perform well experimentally. We first study the Maximum Entropy Sampling problem. This problem consists of selecting a subset of random variables from a larger set, that maximize the entropy. By using diminishing return properties, we develop a simple forward step-wise selection optimization algorithm for this problem. Then, we study the problem of selecting a subset of frames, that represent a given video. Again, this problem corresponds to a submodular maximization problem. We provide a new adaptive sampling algorithm for this problem, suitable to handle the complex side constraints imposed by the application. We conclude by studying Feature Selection. In this case, the underlying objective functions generalize the notion of submodularity. We provide a new adaptive sequencing algorithm for this problem, based on the Orthogonal Matching Pursuit paradigm. Overall, we study practically relevant combinatorial problems, and we propose new algorithms to solve them. We demonstrate that these algorithms are suitable to handle massive datasets. However, our analysis is not problem-specific, and our results can be applied to other domains, if diminishing return properties hold. We hope that the flexibility of our framework inspires further research into scalability in AI. N2 - Moderne Datensätze bestehen oft aus vielfältigen, funktionsreichen und unstrukturierten Daten, die zudem sehr groß sind. Dies gilt insbesondere für soziale Netzwerke, das menschliche Genom und E-Commerce Datenbanken. Mit dem zunehmenden Einsatz von künstlicher Intelligenz (KI) um Muster in den Daten zu erkennen und künftige Ergebnisse vorherzusagen, steigen auch die Bedenken hinsichtlich ihrer Fähigkeit große Datenmengen zu verarbeiten. Aus diesem Grund untersuchen wir das Problem der Entwicklung von KI-Systemen, die auf große und heterogene Datensätze skalieren. Viele KI-Systeme müssen während ihres Einsatzes kombinatorische Optimierungsprobleme lösen. Diese Optimierungsprobleme sind in der Regel NP-schwer und können zusätzliche Nebeneinschränkungen aufwiesen. Die Zielfunktionen dieser Probleme weisen jedoch oft zusätzliche Eigenschaften auf. Diese Eigenschaften können genutzt werden, um geeignete Optimierungsalgorithmen zu entwickeln. Eine dieser Eigenschaften ist das wohluntersuchte Konzept der Submodularität, das das Konzept des abnehmende Erträge beschreibt. Submodularität findet sich in vielen realen Anwendungen. Darüber hinaus weisen viele relevante An- wendungen Verallgemeinerungen dieser Eigenschaft auf. In dieser Arbeit schlagen wir neue skalierbare Algorithmen für kombinatorische Probleme mit abnehmenden Erträgen vor. Wir konzentrieren uns hierbei insbesondere auf drei Prob- leme: dem Maximum-Entropie-Stichproben Problem, der Videozusammenfassung und der Feature Selection. Für jedes dieser Probleme schlagen wir neue Algorithmen vor, die gut skalieren. Diese Algorithmen basieren auf verschiedenen Techniken wie der schrittweisen Vorwärtsauswahl und dem adaptiven sampling. Die von uns vorgeschlagenen Algorithmen bieten sehr gute Annäherungsgarantien und zeigen auch experimentell gute Leistung. Zunächst untersuchen wir das Maximum-Entropy-Sampling Problem. Dieses Problem besteht darin, zufällige Variablen aus einer größeren Menge auszuwählen, welche die Entropie maximieren. Durch die Verwendung der Eigenschaften des abnehmenden Ertrags entwickeln wir einen einfachen forward step-wise selection Optimierungsalgorithmus für dieses Problem. Anschließend untersuchen wir das Problem der Auswahl einer Teilmenge von Bildern, die ein bestimmtes Video repräsentieren. Dieses Problem entspricht einem submodularen Maximierungsproblem. Hierfür stellen wir einen neuen adaptiven Sampling-Algorithmus für dieses Problem zur Verfügung, das auch komplexe Nebenbedingungen erfüllen kann, welche durch die Anwendung entstehen. Abschließend untersuchen wir die Feature Selection. In diesem Fall verallgemeinern die zugrundeliegenden Zielfunktionen die Idee der submodularität. Wir stellen einen neuen adaptiven Sequenzierungsalgorithmus für dieses Problem vor, der auf dem Orthogonal Matching Pursuit Paradigma basiert. Insgesamt untersuchen wir praktisch relevante kombinatorische Probleme und schlagen neue Algorithmen vor, um diese zu lösen. Wir zeigen, dass diese Algorithmen für die Verarbeitung großer Datensätze geeignet sind. Unsere Auswertung ist jedoch nicht problemspezifisch und unsere Ergebnisse lassen sich auch auf andere Bereiche anwenden, sofern die Eigenschaften des abnehmenden Ertrags gelten. Wir hoffen, dass die Flexibilität unseres Frameworks die weitere Forschung im Bereich der Skalierbarkeit im Bereich KI anregt. KW - artificial intelligence KW - scalability KW - optimization KW - Künstliche Intelligenz KW - Optimierung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-611114 ER - TY - GEN A1 - Grum, Marcus A1 - Körppen, Tim A1 - Korjahn, Nicolas A1 - Gronau, Norbert T1 - Entwicklung eines KI-ERP-Indikators BT - Evaluation der Potenzialerschließung von Künstlicher Intelligenz in Enterprise-Resource-Planning-Systemen N2 - Künstliche Intelligenz (KI) gewinnt in zahlreichen Branchen rasant an Bedeutung und wird zunehmend auch in Enterprise Resource Planning (ERP)-Systemen als Anwendungsbereich erschlossen. Die Idee, dass Maschinen die kognitiven Fähigkeiten des Menschen imitieren können, indem Wissen durch Lernen auf Basis von Beispielen in Daten, Informationen und Erfahrungen generiert wird, ist heute ein Schlüsselelement der digitalen Transformation. Jedoch charakterisiert der Einsatz von KI in ERP-System einen hohen Komplexitätsgrad, da die KI als Querschnittstechnologie zu verstehen ist, welche in unterschiedlichen Unternehmensbereichen zum Einsatz kommen kann. Auch die Anwendungsgrade können sich dabei erheblich voneinander unterscheiden. Um trotz dieser Komplexität den Einsatz der KI in ERP-Systemen erfassen und systembezogen vergleichen zu können, wurde im Rahmen dieser Studie ein Reifegradmodell entwickelt. Dieses bildet die Ausgangsbasis zur Ermittlung der KI-Reife in ERP-Systemen und grenzt dabei die folgenden vier KI- bzw. systembezogenen Ebenen voneinander ab: 1) Technische Möglichkeiten, 2) Datenreife, 3) Funktionsreife und 4) Erklärfähigkeit des Systems. KW - Künstliche Intelligenz KW - Enterprise-Resource-Planning KW - KI-ERP-Indikator Y1 - 2022 UR - https://lswi.de/assets/downloads/publikationen/110/Grum-Entwicklung-eines-KI-ERP-Indikators--.pdf PB - Center for Enterprise Research, Universität Potsdam CY - Potsdam ER - TY - THES A1 - Freitas da Cruz, Harry T1 - Standardizing clinical predictive modeling T1 - Standardisierung der klinischen Vorhersagemodellierung BT - standardizing development, validation, and interpretation of clinical prediction models BT - Standardisierung der Entwicklung, Validierung und Interpretierung von klinischen Vorhersagemodellen N2 - An ever-increasing number of prediction models is published every year in different medical specialties. Prognostic or diagnostic in nature, these models support medical decision making by utilizing one or more items of patient data to predict outcomes of interest, such as mortality or disease progression. While different computer tools exist that support clinical predictive modeling, I observed that the state of the art is lacking in the extent to which the needs of research clinicians are addressed. When it comes to model development, current support tools either 1) target specialist data engineers, requiring advanced coding skills, or 2) cater to a general-purpose audience, therefore not addressing the specific needs of clinical researchers. Furthermore, barriers to data access across institutional silos, cumbersome model reproducibility and extended experiment-to-result times significantly hampers validation of existing models. Similarly, without access to interpretable explanations, which allow a given model to be fully scrutinized, acceptance of machine learning approaches will remain limited. Adequate tool support, i.e., a software artifact more targeted at the needs of clinical modeling, can help mitigate the challenges identified with respect to model development, validation and interpretation. To this end, I conducted interviews with modeling practitioners in health care to better understand the modeling process itself and ascertain in what aspects adequate tool support could advance the state of the art. The functional and non-functional requirements identified served as the foundation for a software artifact that can be used for modeling outcome and risk prediction in health research. To establish the appropriateness of this approach, I implemented a use case study in the Nephrology domain for acute kidney injury, which was validated in two different hospitals. Furthermore, I conducted user evaluation to ascertain whether such an approach provides benefits compared to the state of the art and the extent to which clinical practitioners could benefit from it. Finally, when updating models for external validation, practitioners need to apply feature selection approaches to pinpoint the most relevant features, since electronic health records tend to contain several candidate predictors. Building upon interpretability methods, I developed an explanation-driven recursive feature elimination approach. This method was comprehensively evaluated against state-of-the art feature selection methods. Therefore, this thesis' main contributions are three-fold, namely, 1) designing and developing a software artifact tailored to the specific needs of the clinical modeling domain, 2) demonstrating its application in a concrete case in the Nephrology context and 3) development and evaluation of a new feature selection approach applicable in a validation context that builds upon interpretability methods. In conclusion, I argue that appropriate tooling, which relies on standardization and parametrization, can support rapid model prototyping and collaboration between clinicians and data scientists in clinical predictive modeling. N2 - Die Zahl der jährlich veröffentlichten Vorhersagemodelle in verschiedenen medizinischen Fachrichtungen nimmt stetig zu. Solche prognostischen oder diagnostischen Modelle helfen bei der medizinischen Entscheidungsfindung, indem sie zum Beispiel Vorhersagen zur Mortalität oder zum Krankheitsverlauf erlauben. Obwohl bereits Softwarewerkzeuge für die Entwicklung klinischer Vorhersagemodelle existieren, genügt der Stand der Technik noch immer nicht den Anforderungen klinischer Wissenschaftler. So kommt es, dass aktuelle Softwarewerkzeuge zur Modellentwicklung entweder 1) auf die Anforderungen von Datenwissenschaftlicher zugeschnitten sind und folglich Programmierkenntnisse voraussetzen, oder 2) zu generisch sind und somit den tatsächlichen Anforderungen klinischer Wissenschaftler nicht gerecht werden. Überdies wird die Reproduzierbarkeit der Modelle sowie die Durchführung und Validierung von Experimenten durch verteilte Datenbestände und Informationen, sogenannte Datensilos, stark eingeschränkt. Ähnlich verhält es sich bei der Akzeptanz von Modellen des maschinellen Lernens, welche ohne interpretierbare Erklärungen von Vorhersagen kaum gegeben sein dürfte. Eine auf diese Anforderungen klinischer Modellbildung ausgerichtete Softwarelösung kann dabei helfen, die identifizierten Herausforderungen bezüglich Modellentwicklung, -validierung und -interpretation zu bewältigen und die Akzeptanz und Nutzung unter Klinikern zu stärken. Um den Modellierungsprozess zu verstehen und zu eruieren, in welchem Ausmaß eine angemessene Softwarelösung den Stand der Technik voranbringen könnte, wurden im Zuge dieser Arbeit Interviews mit praktizierenden Modellierern im Gesundheitsbereich geführt. Daraus leiten sich funktionale und nichtfunktionale Anforderungen ab, die als Grundlage eines Softwareartefaktes für die Modellierung von Outcome- und Risikovorhersagen in der Gesundheitsforschung verwendet wurden. Um die Eignung meines Ansatzes zu verifizieren, habe ich den Anwendungsfall „akutes Nierenversagen“ im Bereich der Nephrologie in zwei verschiedenen Krankenhäusern betrachtet und validiert. Darüber hinaus wurde eine Nutzerevaluierung durchgeführt um herauszufinden, ob ein solcher Ansatz im Vergleich zum Stand der Technik Vorteile bietet und inwieweit klinische Praktiker davon profitieren können. Außerdem müssen praktizierende Kliniker bei der Aktualisierung von Modellen für die externe Validierung Ansätze zur Merkmalsselektion anwenden, da elektronische Gesundheitsakten in der Regel mehrere erklärende Merkmale enthalten. Aufbauend auf Methoden zur Interpretierbarkeit habe ich einen erklärungsorientierten rekursiven Eliminierungsansatz entwickelt. Dieser neue Ansatz wurde umfassend mit Standardverfahren der Merkmalsselektion verglichen. Daraus leiten sich folgende Forschungsbeiträge dieser Arbeit ab: 1) Entwurf und Entwicklung eines Softwareartefakts, welches auf die speziellen Bedürfnisse der klinischen Modellierungsdomäne zugeschnitten ist, 2) Demonstration seiner Anwendbarkeit für das konkrete Fallbeispiel „akutes Nierenversagen“ und 3) Entwicklung und Evaluierung eines neuen, auf Interpretierbarkeitsmethoden basierenden Ansatzes, zur Merkmalsselektion in einem Validierungskontext. Zusammenfassend ist zu folgern, dass ein geeignetes auf Standardisierung und Parametrisierung gestütztes Tool die schnelle prototypische Entwicklung und die Zusammenarbeit von Klinikern und Datenwissenschaftlern an klinischen Vorhersagemodellen unterstützen kann. KW - Predictive Modeling KW - Prädiktive Modellierung KW - Clinical Data KW - Klinische Daten KW - Künstliche Intelligenz KW - Vorhersagemodellierung KW - Überwachtes Lernen KW - Artificial Intelligence KW - Supervised Learning Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-514960 ER - TY - THES A1 - Hecher, Markus T1 - Advanced tools and methods for treewidth-based problem solving N2 - In the last decades, there was a notable progress in solving the well-known Boolean satisfiability (Sat) problem, which can be witnessed by powerful Sat solvers. One of the reasons why these solvers are so fast are structural properties of instances that are utilized by the solver’s interna. This thesis deals with the well-studied structural property treewidth, which measures the closeness of an instance to being a tree. In fact, there are many problems parameterized by treewidth that are solvable in polynomial time in the instance size when parameterized by treewidth. In this work, we study advanced treewidth-based methods and tools for problems in knowledge representation and reasoning (KR). Thereby, we provide means to establish precise runtime results (upper bounds) for canonical problems relevant to KR. Then, we present a new type of problem reduction, which we call decomposition-guided (DG) that allows us to precisely monitor the treewidth when reducing from one problem to another problem. This new reduction type will be the basis for a long-open lower bound result for quantified Boolean formulas and allows us to design a new methodology for establishing runtime lower bounds for problems parameterized by treewidth. Finally, despite these lower bounds, we provide an efficient implementation of algorithms that adhere to treewidth. Our approach finds suitable abstractions of instances, which are subsequently refined in a recursive fashion, and it uses Sat solvers for solving subproblems. It turns out that our resulting solver is quite competitive for two canonical counting problems related to Sat. N2 - In den letzten Jahrzehnten konnte ein beachtlicher Fortschritt im Bereich der Aussagenlogik verzeichnet werden. Dieser äußerte sich dadurch, dass für das wichtigste Problem in diesem Bereich, genannt „Sat“, welches sich mit der Fragestellung befasst, ob eine gegebene aussagenlogische Formel erfüllbar ist oder nicht, überwältigend schnelle Computerprogramme („Solver“) entwickelt werden konnten. Interessanterweise liefern diese Solver eine beeindruckende Leistung, weil sie oft selbst Probleminstanzen mit mehreren Millionen von Variablen spielend leicht lösen können. Auf der anderen Seite jedoch glaubt man in der Wissenschaft weitgehend an die Exponentialzeithypothese (ETH), welche besagt, dass man im schlimmsten Fall für das Lösen einer Instanz in diesem Bereich exponentielle Laufzeit in der Anzahl der Variablen benötigt. Dieser vermeintliche Widerspruch ist noch immer nicht vollständig geklärt, denn wahrscheinlich gibt es viele ineinandergreifende Gründe für die Schnelligkeit aktueller Sat Solver. Einer dieser Gründe befasst sich weitgehend mit strukturellen Eigenschaften von Probleminstanzen, die wohl indirekt und intern von diesen Solvern ausgenützt werden. Diese Dissertation beschäftigt sich mit solchen strukturellen Eigenschaften, nämlich mit der sogenannten Baumweite. Die Baumweite ist sehr gut erforscht und versucht zu messen, wie groß der Abstand von Probleminstanzen zu Bäumen ist (Baumnähe). Allerdings ist dieser Parameter sehr generisch und bei Weitem nicht auf Problemstellungen der Aussagenlogik beschränkt. Tatsächlich gibt es viele weitere Probleme, die parametrisiert mit Baumweite in polynomieller Zeit gelöst werden können. Interessanterweise gibt es auch viele Probleme in der Wissensrepräsentation (KR), von denen man davon ausgeht, dass sie härter sind als das Problem Sat, die bei beschränkter Baumweite in polynomieller Zeit gelöst werden können. Ein prominentes Beispiel solcher Probleme ist das Problem QSat, welches sich für die Gültigkeit einer gegebenen quantifizierten, aussagenlogischen Formel (QBF), das sind aussagenlogische Formeln, wo gewisse Variablen existenziell bzw. universell quantifiziert werden können, befasst. Bemerkenswerterweise wird allerdings auch im Zusammenhang mit Baumweite, ähnlich zu Methoden der klassischen Komplexitätstheorie, die tatsächliche Komplexität (Härte) solcher Problemen quantifiziert, wo man die exakte Laufzeitabhängigkeit beim Problemlösen in der Baumweite (Stufe der Exponentialität) beschreibt. Diese Arbeit befasst sich mit fortgeschrittenen, Baumweite-basierenden Methoden und Werkzeugen für Probleme der Wissensrepräsentation und künstlichen Intelligenz (AI). Dabei präsentieren wir Methoden, um präzise Laufzeitresultate (obere Schranken) für prominente Fragmente der Antwortmengenprogrammierung (ASP), welche ein kanonisches Paradigma zum Lösen von Problemen der Wissensrepräsentation darstellt, zu erhalten. Unsere Resultate basieren auf dem Konzept der dynamischen Programmierung, die angeleitet durch eine sogenannte Baumzerlegung und ähnlich dem Prinzip „Teile-und-herrsche“ funktioniert. Solch eine Baumzerlegung ist eine konkrete, strukturelle Zerlegung einer Probleminstanz, die sich stark an der Baumweite orientiert. Des Weiteren präsentieren wir einen neuen Typ von Problemreduktion, den wir als „decomposition-guided (DG)“, also „zerlegungsangeleitet“, bezeichnen. Dieser Reduktionstyp erlaubt es, Baumweiteerhöhungen und -verringerungen während einer Problemreduktion von einem bestimmten Problem zu einem anderen Problem präzise zu untersuchen und zu kontrollieren. Zusätzlich ist dieser neue Reduktionstyp die Basis, um ein lange offen gebliebenes Resultat betreffend quantifizierter, aussagenlogischer Formeln zu zeigen. Tatsächlich sind wir damit in der Lage, präzise untere Schranken, unter der Annahme der Exponentialzeithypothese, für das Problem QSat bei beschränkter Baumweite zu zeigen. Genauer gesagt können wir mit diesem Konzept der DG Reduktionen zeigen, dass das Problem QSat, beschränkt auf Quantifizierungsrang ` und parametrisiert mit Baumweite k, im Allgemeinen nicht besser als in einer Laufzeit, die `-fach exponentiell in der Baumweite und polynomiell in der Instanzgröße ist1, lösen. Dieses Resultat hebt auf nicht-inkrementelle Weise ein bekanntes Ergebnis für Quantifizierungsrang 2 auf beliebige Quantifizierungsränge, allerdings impliziert es auch sehr viele weitere Konsequenzen. Das Resultat über die untere Schranke des Problems QSat erlaubt es, eine neue Methodologie zum Zeigen unterer Schranken einer Vielzahl von Problemen der Wissensrepräsentation und künstlichen Intelligenz, zu etablieren. In weiterer Konsequenz können wir damit auch zeigen, dass die oberen Schranken sowie die DG Reduktionen dieser Arbeit unter der Hypothese ETH „eng“ sind, d.h., sie können wahrscheinlich nicht mehr signifikant verbessert werden. Die Ergebnisse betreffend der unteren Schranken für QSat und die dazugehörige Methodologie konstituieren in gewisser Weise eine Hierarchie von über Baumweite parametrisierte Laufzeitklassen. Diese Laufzeitklassen können verwendet werden, um die Härte von Problemen für das Ausnützen von Baumweite zu quantifizieren und diese entsprechend ihrer Laufzeitabhängigkeit bezüglich Baumweite zu kategorisieren. Schlussendlich und trotz der genannten Resultate betreffend unterer Schranken sind wir im Stande, eine effiziente Implementierung von Algorithmen basierend auf dynamischer Programmierung, die entlang einer Baumzerlegung angeleitet wird, zur Verfügung zu stellen. Dabei funktioniert unser Ansatz dahingehend, indem er probiert, passende Abstraktionen von Instanzen zu finden, die dann im Endeffekt sukzessive und auf rekursive Art und Weise verfeinert und verbessert werden. Inspiriert durch die enorme Effizienz und Effektivität der Sat Solver, ist unsere Implementierung ein hybrider Ansatz, weil sie den starken Gebrauch von Sat Solvern zum Lösen diverser Subprobleme, die während der dynamischen Programmierung auftreten, pflegt. Dabei stellt sich heraus, dass der resultierende Solver unserer Implementierung im Bezug auf Effizienz beim Lösen von zwei kanonischen, Sat-verwandten Zählproblemen mit bestehenden Solvern locker mithalten kann. Tatsächlich sind wir im Stande, Instanzen, wo die oberen Schranken von Baumweite 260 übersteigen, zu lösen. Diese überraschende Beobachtung zeigt daher, dass Baumweite ein wichtiger Parameter sein könnte, der wohl in modernen Designs von Solvern berücksichtigt werden sollte. KW - Treewidth KW - Dynamic Programming KW - Knowledge Representation and Reasoning KW - Artificial Intelligence KW - Computational Complexity KW - Parameterized Complexity KW - Answer Set Programming KW - Exponential Time Hypothesis KW - Lower Bounds KW - Algorithms KW - Algorithmen KW - Antwortmengenprogrammierung KW - Künstliche Intelligenz KW - Komplexitätstheorie KW - Dynamische Programmierung KW - Exponentialzeit Hypothese KW - Wissensrepräsentation und Schlussfolgerung KW - Untere Schranken KW - Parametrisierte Komplexität KW - Baumweite Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512519 ER - TY - BOOK A1 - Zhang, Shuhao A1 - Plauth, Max A1 - Eberhardt, Felix A1 - Polze, Andreas A1 - Lehmann, Jens A1 - Sejdiu, Gezim A1 - Jabeen, Hajira A1 - Servadei, Lorenzo A1 - Möstl, Christian A1 - Bär, Florian A1 - Netzeband, André A1 - Schmidt, Rainer A1 - Knigge, Marlene A1 - Hecht, Sonja A1 - Prifti, Loina A1 - Krcmar, Helmut A1 - Sapegin, Andrey A1 - Jaeger, David A1 - Cheng, Feng A1 - Meinel, Christoph A1 - Friedrich, Tobias A1 - Rothenberger, Ralf A1 - Sutton, Andrew M. A1 - Sidorova, Julia A. A1 - Lundberg, Lars A1 - Rosander, Oliver A1 - Sköld, Lars A1 - Di Varano, Igor A1 - van der Walt, Estée A1 - Eloff, Jan H. P. A1 - Fabian, Benjamin A1 - Baumann, Annika A1 - Ermakova, Tatiana A1 - Kelkel, Stefan A1 - Choudhary, Yash A1 - Cooray, Thilini A1 - Rodríguez, Jorge A1 - Medina-Pérez, Miguel Angel A1 - Trejo, Luis A. A1 - Barrera-Animas, Ari Yair A1 - Monroy-Borja, Raúl A1 - López-Cuevas, Armando A1 - Ramírez-Márquez, José Emmanuel A1 - Grohmann, Maria A1 - Niederleithinger, Ernst A1 - Podapati, Sasidhar A1 - Schmidt, Christopher A1 - Huegle, Johannes A1 - de Oliveira, Roberto C. L. A1 - Soares, Fábio Mendes A1 - van Hoorn, André A1 - Neumer, Tamas A1 - Willnecker, Felix A1 - Wilhelm, Mathias A1 - Kuster, Bernhard ED - Meinel, Christoph ED - Polze, Andreas ED - Beins, Karsten ED - Strotmann, Rolf ED - Seibold, Ulrich ED - Rödszus, Kurt ED - Müller, Jürgen T1 - HPI Future SOC Lab – Proceedings 2017 T1 - HPI Future SOC Lab – Proceedings 2017 N2 - The “HPI Future SOC Lab” is a cooperation of the Hasso Plattner Institute (HPI) and industry partners. Its mission is to enable and promote exchange and interaction between the research community and the industry partners. The HPI Future SOC Lab provides researchers with free of charge access to a complete infrastructure of state of the art hard and software. This infrastructure includes components, which might be too expensive for an ordinary research environment, such as servers with up to 64 cores and 2 TB main memory. The offerings address researchers particularly from but not limited to the areas of computer science and business information systems. Main areas of research include cloud computing, parallelization, and In-Memory technologies. This technical report presents results of research projects executed in 2017. Selected projects have presented their results on April 25th and November 15th 2017 at the Future SOC Lab Day events. N2 - Das Future SOC Lab am HPI ist eine Kooperation des Hasso-Plattner-Instituts mit verschiedenen Industriepartnern. Seine Aufgabe ist die Ermöglichung und Förderung des Austausches zwischen Forschungsgemeinschaft und Industrie. Am Lab wird interessierten Wissenschaftlern eine Infrastruktur von neuester Hard- und Software kostenfrei für Forschungszwecke zur Verfügung gestellt. Dazu zählen teilweise noch nicht am Markt verfügbare Technologien, die im normalen Hochschulbereich in der Regel nicht zu finanzieren wären, bspw. Server mit bis zu 64 Cores und 2 TB Hauptspeicher. Diese Angebote richten sich insbesondere an Wissenschaftler in den Gebieten Informatik und Wirtschaftsinformatik. Einige der Schwerpunkte sind Cloud Computing, Parallelisierung und In-Memory Technologien. In diesem Technischen Bericht werden die Ergebnisse der Forschungsprojekte des Jahres 2017 vorgestellt. Ausgewählte Projekte stellten ihre Ergebnisse am 25. April und 15. November 2017 im Rahmen der Future SOC Lab Tag Veranstaltungen vor. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 130 KW - Future SOC Lab KW - research projects KW - multicore architectures KW - In-Memory technology KW - cloud computing KW - machine learning KW - artifical intelligence KW - Future SOC Lab KW - Forschungsprojekte KW - Multicore Architekturen KW - In-Memory Technologie KW - Cloud Computing KW - maschinelles Lernen KW - Künstliche Intelligenz Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-433100 SN - 978-3-86956-475-3 SN - 1613-5652 SN - 2191-1665 IS - 130 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Konczak, Kathrin T1 - Preferences in answer set programming T1 - Präferenzen in der Antwortmengenprogrammierung N2 - Answer Set Programming (ASP) emerged in the late 1990s as a new logic programming paradigm, having its roots in nonmonotonic reasoning, deductive databases, and logic programming with negation as failure. The basic idea of ASP is to represent a computational problem as a logic program whose answer sets correspond to solutions, and then to use an answer set solver for finding answer sets of the program. ASP is particularly suited for solving NP-complete search problems. Among these, we find applications to product configuration, diagnosis, and graph-theoretical problems, e.g. finding Hamiltonian cycles. On different lines of ASP research, many extensions of the basic formalism have been proposed. The most intensively studied one is the modelling of preferences in ASP. They constitute a natural and effective way of selecting preferred solutions among a plethora of solutions for a problem. For example, preferences have been successfully used for timetabling, auctioning, and product configuration. In this thesis, we concentrate on preferences within answer set programming. Among several formalisms and semantics for preference handling in ASP, we concentrate on ordered logic programs with the underlying D-, W-, and B-semantics. In this setting, preferences are defined among rules of a logic program. They select preferred answer sets among (standard) answer sets of the underlying logic program. Up to now, those preferred answer sets have been computed either via a compilation method or by meta-interpretation. Hence, the question comes up, whether and how preferences can be integrated into an existing ASP solver. To solve this question, we develop an operational graph-based framework for the computation of answer sets of logic programs. Then, we integrate preferences into this operational approach. We empirically observe that our integrative approach performs in most cases better than the compilation method or meta-interpretation. Another research issue in ASP are optimization methods that remove redundancies, as also found in database query optimizers. For these purposes, the rather recently suggested notion of strong equivalence for ASP can be used. If a program is strongly equivalent to a subprogram of itself, then one can always use the subprogram instead of the original program, a technique which serves as an effective optimization method. Up to now, strong equivalence has not been considered for logic programs with preferences. In this thesis, we tackle this issue and generalize the notion of strong equivalence to ordered logic programs. We give necessary and sufficient conditions for the strong equivalence of two ordered logic programs. Furthermore, we provide program transformations for ordered logic programs and show in how far preferences can be simplified. Finally, we present two new applications for preferences within answer set programming. First, we define new procedures for group decision making, which we apply to the problem of scheduling a group meeting. As a second new application, we reconstruct a linguistic problem appearing in German dialects within ASP. Regarding linguistic studies, there is an ongoing debate about how unique the rule systems of language are in human cognition. The reconstruction of grammatical regularities with tools from computer science has consequences for this debate: if grammars can be modelled this way, then they share core properties with other non-linguistic rule systems. N2 - Die Antwortmengenprogrammierung entwickelte sich in den späten 90er Jahren als neues Paradigma der logischen Programmierung und ist in den Gebieten des nicht-monotonen Schließens und der deduktiven Datenbanken verwurzelt. Dabei wird eine Problemstellung als logisches Programm repräsentiert, dessen Lösungen, die so genannten Antwortmengen, genau den Lösungen des ursprünglichen Problems entsprechen. Die Antwortmengenprogrammierung bildet ein geeignetes Fundament zur Repräsentation und zum Lösen von Entscheidungs- und Suchproblemen in der Komplexitätsklasse NP. Anwendungen finden wir unter anderem in der Produktkonfiguration, Diagnose und bei graphen-theoretischen Problemen, z.B. der Suche nach Hamiltonschen Kreisen. In den letzten Jahren wurden viele Erweiterungen der Antwortmengenprogrammierung betrachtet. Die am meisten untersuchte Erweiterung ist die Modellierung von Präferenzen. Diese bilden eine natürliche und effektive Möglichkeit, unter einer Vielzahl von Lösungen eines Problems bevorzugte Lösungen zu selektieren. Präferenzen finden beispielsweise in der Stundenplanung, bei Auktionen und bei Produktkonfigurationen ihre Anwendung. Der Schwerpunkt dieser Arbeit liegt in der Modellierung, Implementierung und Anwendung von Präferenzen in der Antwortmengenprogrammierung. Da es verschiedene Ansätze gibt, um Präferenzen darzustellen, konzentrieren wir uns auf geordnete logische Programme, wobei Präferenzen als partielle Ordnung der Regeln eines logischen Programms ausgedrückt werden. Dabei betrachten wir drei verschiedene Semantiken zur Interpretation dieser Präferenzen. Im Vorfeld wurden für diese Semantiken die bevorzugten Antwortmengen durch einen Compiler oder durch Meta-Interpretation berechnet. Da Präferenzen Lösungen selektieren, stellt sich die Frage, ob es möglich ist, diese direkt in den Berechnungsprozeß von präferenzierten Antwortmengen zu integrieren, so dass die bevorzugten Antwortmengen ohne Zwischenschritte berechnet werden können. Dazu entwickeln wir zuerst ein auf Graphen basierendes Gerüst zur Berechnung von Antwortmengen. Anschließend werden wir darin Präferenzen integrieren, so dass bevorzugte Antwortmengen ohne Compiler oder Meta-Interpretation berechnet werden. Es stellt sich heraus, dass die integrative Methode auf den meisten betrachteten Problemklassen wesentlich leistungsfähiger ist als der Compiler oder Meta-Interpretation. Ein weiterer Schwerpunkt dieser Arbeit liegt in der Frage, inwieweit sich geordnete logische Programme vereinfachen lassen. Dazu steht die Methodik der strengen Äquivalenz von logischen Programmen zur Verfügung. Wenn ein logisches Programm streng äquivalent zu einem seiner Teilprogramme ist, so kann man dieses durch das entsprechende Teilprogramm ersetzen, ohne dass sich die zugrunde liegende Semantik ändert. Bisher wurden strenge Äquivalenzen nicht für logische Programme mit Präferenzen untersucht. In dieser Arbeit definieren wir erstmalig strenge Äquivalenzen für geordnete logische Programme. Wir geben notwendige und hinreichende Bedingungen für die strenge Äquivalenz zweier geordneter logischer Programme an. Des Weiteren werden wir auch die Frage beantworten, inwieweit geordnete logische Programme und deren Präferenzstrukturen vereinfacht werden können. Abschließend präsentieren wir zwei neue Anwendungsbereiche von Präferenzen in der Antwortmengenprogrammierung. Zuerst definieren wir neue Prozeduren zur Entscheidungsfindung innerhalb von Gruppenprozessen. Diese integrieren wir anschließend in das Problem der Planung eines Treffens für eine Gruppe. Als zweite neue Anwendung rekonstruieren wir mit Hilfe der Antwortmengenprogrammierung eine linguistische Problemstellung, die in deutschen Dialekten auftritt. Momentan wird im Bereich der Linguistik darüber diskutiert, ob Regelsysteme von (menschlichen) Sprachen einzigartig sind oder nicht. Die Rekonstruktion von grammatikalischen Regularitäten mit Werkzeugen aus der Informatik erlaubt die Unterstützung der These, dass linguistische Regelsysteme Gemeinsamkeiten zu anderen nicht-linguistischen Regelsystemen besitzen. KW - Präferenzen KW - Antwortmengenprogrammierung KW - logische Programmierung KW - Künstliche Intelligenz KW - preferences KW - priorities KW - answer set programming KW - logic programming KW - artificial intelligence Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-12058 ER -