TY - THES A1 - Kunkel, Stefanie T1 - Green industry through industry 4.0? Expected and observed effects of digitalisation in industry for environmental sustainability T1 - Grüne Industrie durch Industrie 4.0? Erwartete und beobachtete Auswirkungen der Digitalisierung in der Industrie auf ökologische Nachhaltigkeit N2 - Digitalisation in industry – also called “Industry 4.0” – is seen by numerous actors as an opportunity to reduce the environmental impact of the industrial sector. The scientific assessments of the effects of digitalisation in industry on environmental sustainability, however, are ambivalent. This cumulative dissertation uses three empirical studies to examine the expected and observed effects of digitalisation in industry on environmental sustainability. The aim of this dissertation is to identify opportunities and risks of digitalisation at different system levels and to derive options for action in politics and industry for a more sustainable design of digitalisation in industry. I use an interdisciplinary, socio-technical approach and look at selected countries of the Global South (Study 1) and the example of China (all studies). In the first study (section 2, joint work with Marcel Matthess), I use qualitative content analysis to examine digital and industrial policies from seven different countries in Africa and Asia for expectations regarding the impact of digitalisation on sustainability and compare these with the potentials of digitalisation for sustainability in the respective country contexts. The analysis reveals that the documents express a wide range of vague expectations that relate more to positive indirect impacts of information and communication technology (ICT) use, such as improved energy efficiency and resource management, and less to negative direct impacts of ICT, such as electricity consumption through ICT. In the second study (section 3, joint work with Marcel Matthess, Grischa Beier and Bing Xue), I conduct and analyse interviews with 18 industry representatives of the electronics industry from Europe, Japan and China on digitalisation measures in supply chains using qualitative content analysis. I find that while there are positive expectations regarding the effects of digital technologies on supply chain sustainability, their actual use and observable effects are still limited. Interview partners can only provide few examples from their own companies which show that sustainability goals have already been pursued through digitalisation of the supply chain or where sustainability effects, such as resource savings, have been demonstrably achieved. In the third study (section 4, joint work with Peter Neuhäusler, Melissa Dachrodt and Marcel Matthess), I conduct an econometric panel data analysis. I examine the relationship between the degree of Industry 4.0, energy consumption and energy intensity in ten manufacturing sectors in China between 2006 and 2019. The results suggest that overall, there is no significant relationship between the degree of Industry 4.0 and energy consumption or energy intensity in manufacturing sectors in China. However, differences can be found in subgroups of sectors. I find a negative correlation of Industry 4.0 and energy intensity in highly digitalised sectors, indicating an efficiency-enhancing effect of Industry 4.0 in these sectors. On the other hand, there is a positive correlation of Industry 4.0 and energy consumption for sectors with low energy consumption, which could be explained by the fact that digitalisation, such as the automation of previously mainly labour-intensive sectors, requires energy and also induces growth effects. In the discussion section (section 6) of this dissertation, I use the classification scheme of the three levels macro, meso and micro, as well as of direct and indirect environmental effects to classify the empirical observations into opportunities and risks, for example, with regard to the probability of rebound effects of digitalisation at the three levels. I link the investigated actor perspectives (policy makers, industry representatives), statistical data and additional literature across the system levels and consider political economy aspects to suggest fields of action for more sustainable (digitalised) industries. The dissertation thus makes two overarching contributions to the academic and societal discourse. First, my three empirical studies expand the limited state of research at the interface between digitalisation in industry and sustainability, especially by considering selected countries in the Global South and the example of China. Secondly, exploring the topic through data and methods from different disciplinary contexts and taking a socio-technical point of view, enables an analysis of (path) dependencies, uncertainties, and interactions in the socio-technical system across different system levels, which have often not been sufficiently considered in previous studies. The dissertation thus aims to create a scientifically and practically relevant knowledge basis for a value-guided, sustainability-oriented design of digitalisation in industry. N2 - Die Digitalisierung der Industrie, auch „Industrie 4.0“ genannt, wird von zahlreichen Akteuren als Chance zur Reduktion der Umweltauswirkungen des industriellen Sektors betrachtet. Die wissenschaftlichen Bewertungen der Effekte der Digitalisierung der Industrie auf ökologische Nachhaltigkeit sind hingegen ambivalent. Diese kumulative Dissertation untersucht anhand von drei empirischen Studien die erwarteten und beobachteten Auswirkungen der Digitalisierung der Industrie auf ökologische Nachhaltigkeit. Ziel der Dissertation ist es, Chancen und Risiken der Digitalisierung auf verschiedenen System-Ebenen zu identifizieren und Handlungsoptionen in Politik und Industrie für eine nachhaltigere Gestaltung der Digitalisierung der Industrie abzuleiten. Ich nutze einen interdisziplinären, soziotechnischen Zugang und betrachte ausgewählte Länder des Globalen Südens (Studie 1) und das Beispiel Chinas (alle Studien). In der ersten Studie (Kapitel 2, gemeinsame Arbeit mit Marcel Matthess) untersuche ich mittels qualitativer Inhaltsanalyse Digital- und Industriestrategien aus sieben verschiedenen Ländern in Afrika und Asien auf politische Erwartungen hinsichtlich der Auswirkungen von Digitalisierung auf Nachhaltigkeit und vergleiche diese mit den erwartbaren Potenzialen der Digitalisierung für Nachhaltigkeit in den jeweiligen Länderkontexten. Die Analyse ergibt, dass die Dokumente ein breites Spektrum vager Erwartungen zum Ausdruck bringen, die sich eher auf positive indirekte Auswirkungen der Nutzung von Informations- und Kommunikationstechnologie (IKT), wie etwa auf höhere Energieeffizienz und ein verbessertes Ressourcenmanagement, und weniger auf negative direkte Auswirkungen der IKT, wie etwa auf den Stromverbrauch durch IKT, beziehen. In der zweiten Studie (Kapitel 3, gemeinsame Arbeit mit Marcel Matthess, Grischa Beier und Bing Xue) führe und analysiere ich mittels qualitativer Inhaltsanalyse Interviews mit 18 Industrie-Vertreter*innen der Elektronikindustrie aus Europa, Japan und China zu Maßnahmen der Digitalisierung in Lieferketten. Wir stellen fest, dass zwar positive Erwartungen hinsichtlich der Effekte digitaler Technologien für Nachhaltigkeit der Lieferkette bestehen, deren tatsächlicher Einsatz und beobachtete Effekte jedoch noch begrenzt sind. Interviewpartner*innen können nur wenige Beispiele aus den eigenen Unternehmen nennen, die zeigen, dass durch die Digitalisierung der Lieferkette bereits Nachhaltigkeitsziele verfolgt oder Nachhaltigkeits-Effekte, wie Ressourceneinsparungen, nachweisbar erzielt wurden. In der dritten Studie (Kapitel 4, gemeinsame Arbeit mit Peter Neuhäusler, Marcel Matthess und Melissa Dachrodt) führe ich eine ökonometrische Panel-Daten-Analyse durch. Ich untersuche den Zusammenhang zwischen dem Grad von Industrie 4.0 und dem Energieverbrauch sowie der Energieintensität in zehn Fertigungssektoren in China im Zeitraum zwischen 2006 und 2019. Die Ergebnisse deuten darauf hin, dass es insgesamt keinen signifikanten Zusammenhang zwischen dem Grad von Industrie 4.0 und dem Energieverbrauch bzw. der Energieintensität in Fertigungs-Sektoren in China gibt. Es können jedoch Unterschiede in Sub-Gruppen von Sektoren festgestellt werden. Ich stelle eine negative Korrelation von Industrie 4.0 und Energieintensität in hoch digitalisierten Sektoren fest, was auf einen Effizienz-steigernden Effekt von Industrie 4.0 hindeutet. Andererseits besteht eine positive Korrelation von Industrie 4.0 und Energieverbrauch für Sektoren mit niedrigem Energieverbrauch, was dadurch erklärt werden könnte, dass Digitalisierung, etwa die Automatisierung zuvor hauptsächlich arbeitsintensiver Sektoren, Energie erfordert und außerdem Wachstumseffekte hervorruft. Im Diskussionsteil (Kapitel 6) dieser Dissertation nutze ich das Ordnungsschema der drei Ebenen Makro, Meso und Mikro, sowie von direkten und indirekten Umwelteffekten für die Einordnung der empirischen Beobachtungen in Chancen und Risiken, etwa hinsichtlich der Wahrscheinlichkeit von Rebound-Effekten der Digitalisierung auf Mikro-, Meso- und Makro-Ebene. Ich verknüpfe die untersuchten Akteurs-Perspektiven (Politiker*innen, Industrievertreter*innen), statistischen Daten und zusätzliche Literatur über die System-Ebenen hinweg und berücksichtige dabei auch Gedanken der politischen Ökonomik, um Handlungsfelder für nachhaltige(re) digitalisierte Industrien abzuleiten. Die Dissertation leistet damit zwei übergeordnete Beiträge zum wissenschaftlichen und gesellschaftlichen Diskurs. Erstens erweitern meine drei empirischen Studien den begrenzten Forschungsstand an der Schnittstelle zwischen Digitalisierung in der Industrie und Nachhaltigkeit, insbesondere durch Berücksichtigung ausgewählter Länder im Globalen Süden und des Beispiels Chinas. Zweitens ermöglicht die Erforschung des Themas durch Daten und Methoden aus unterschiedlichen disziplinären Kontexten und unter Einnahme eines soziotechnischen Standpunkts, eine Analyse von (Pfad-)Abhängigkeiten und Unsicherheiten im soziotechnischen System über verschiedene System-Ebenen hinweg, die in bisherigen Studien häufig nicht ausreichend berücksichtigt wurden. Die Dissertation soll so eine wissenschaftlich und praktisch relevante Wissensbasis für eine werte-gleitete, auf Nachhaltigkeit ausgerichtete Gestaltung der Digitalisierung der Industrie schaffen. KW - digitalization KW - sustainable industrial development KW - Industry 4.0 KW - information and communication technologies KW - sustainable supply chain management KW - Global Value Chains KW - environmental upgrading KW - Artificial Intelligence KW - Big Data Analytics KW - Digital Rebound KW - China KW - patent KW - robot KW - sustainability KW - Künstliche Intelligenz KW - Big Data Analytics KW - China KW - Digital Rebound KW - Globale Wertschöpfungsketten KW - Industrie 4.0 KW - Digitalisierung KW - ökologisches Upgrading KW - Informations- und Kommunikationstechnologien KW - Patent KW - Roboter KW - Nachhaltigkeit KW - nachhaltige industrielle Entwicklung KW - nachhaltiges Lieferkettenmanagement KW - Industrial Internet of Things KW - Industrielles Internet der Dinge Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-613954 ER - TY - THES A1 - Dannenmann, Barbara T1 - Können technologiegestützte Verhandlungstrainings unter Einsatz von Künstlicher Intelligenz und Virtueller Realität das Vertriebstraining verbessern? T1 - Can technology-based negotiation trainings using artificial intelligence and virtual reality improve sales trainings? BT - Entwicklung und Evaluation eines automatisierten Verhandlungstrainings BT - development and evaluation of an automated negotiation training N2 - Digitale und gesellschaftliche Entwicklungen fordern kontinuierliche Weiterbildung für Mitarbeiter im Vertrieb. Es halten sich in dieser Berufssparte aber immer noch einige Mythen zum Training von Vertriebsmitarbeitern. Unter anderem deshalb wurde in der Vergangenheit der Trainingsbedarf im Vertrieb stark vernachlässigt. Die Arbeit befasst sich deshalb zunächst mit der Frage, wie der Vertrieb in Deutschland aktuell geschult wird (unter Einbezug der Corona-Pandemie) und ob sich aus den Trainingsgewohnheiten erste Hinweise zur Erlangung eines strategischen Wettbewerbsvorteils ergeben könnten. Dabei greift die Arbeit auf, dass Investitionen in das Training von Vertriebsmitarbeitern eine Anlage in die Wettbewerbsfähigkeit des Unternehmens sein könnten. Automatisierte Trainings, beispielsweise basierend auf Virtual Reality (VR) und Künstlicher Intelligenz (KI), könnten in der Aus- und Weiterbildung des Vertriebs einen effizienten Beitrag in der Sicherstellung eines strategischen Wettbewerbsvorteils leisten. Durch weitere Forschungsfragen befasst sich die Arbeit anschließend damit, wie ein automatisiertes Vertriebstraining mit KI- und VR-Inhalten unter Einbeziehung der Nutzer gestaltet werden muss, um Vertriebsmitarbeiter in einem dafür ausgewählten Verhandlungskontext zu trainieren. Dazu wird eine Anwendung mit Hilfe von Virtual Reality und Künstlicher Intelligenz in einem Verhandlungsdialog entwickelt, getestet und evaluiert. Die vorliegende Arbeit liefert eine Basis für die Automatisierung von Vertriebstrainings und im erweiterten Sinne für Trainings im Allgemeinen. N2 - Digital and social developments demand continuous training for sales staff. However, some myths about the training of sales staff still persist in this profession. This is one of the reasons why the need for training in sales has been strongly neglected in the past. This work therefore first deals with the question of how salespeople in Germany are currently trained (taking into account the Corona pandemic) and whether initial indications for gaining a strategic competitive advantage could result from training habits. It takes up the idea that investments in the training of sales staff could be an investment in the competitiveness of the company. Automated training, for example based on virtual reality (VR) and artificial intelligence (AI), could make an efficient contribution to ensuring a strategic competitive advantage in sales training. Through further research questions, the thesis then addresses how automated sales training with AI and VR content must be designed with user involvement in order to train sales employees in a negotiation context selected for this purpose. For this purpose, an application is developed, tested and evaluated using virtual reality and artificial intelligence in a negotiation dialogue. This work provides a basis for the automation of sales training and, in a broader sense, for training in general. KW - VR KW - KI KW - Vertrieb KW - Verhandlungen KW - Artificial Intelligence KW - Virtual Reality KW - negotiations KW - sales Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-577378 ER - TY - THES A1 - Freitas da Cruz, Harry T1 - Standardizing clinical predictive modeling T1 - Standardisierung der klinischen Vorhersagemodellierung BT - standardizing development, validation, and interpretation of clinical prediction models BT - Standardisierung der Entwicklung, Validierung und Interpretierung von klinischen Vorhersagemodellen N2 - An ever-increasing number of prediction models is published every year in different medical specialties. Prognostic or diagnostic in nature, these models support medical decision making by utilizing one or more items of patient data to predict outcomes of interest, such as mortality or disease progression. While different computer tools exist that support clinical predictive modeling, I observed that the state of the art is lacking in the extent to which the needs of research clinicians are addressed. When it comes to model development, current support tools either 1) target specialist data engineers, requiring advanced coding skills, or 2) cater to a general-purpose audience, therefore not addressing the specific needs of clinical researchers. Furthermore, barriers to data access across institutional silos, cumbersome model reproducibility and extended experiment-to-result times significantly hampers validation of existing models. Similarly, without access to interpretable explanations, which allow a given model to be fully scrutinized, acceptance of machine learning approaches will remain limited. Adequate tool support, i.e., a software artifact more targeted at the needs of clinical modeling, can help mitigate the challenges identified with respect to model development, validation and interpretation. To this end, I conducted interviews with modeling practitioners in health care to better understand the modeling process itself and ascertain in what aspects adequate tool support could advance the state of the art. The functional and non-functional requirements identified served as the foundation for a software artifact that can be used for modeling outcome and risk prediction in health research. To establish the appropriateness of this approach, I implemented a use case study in the Nephrology domain for acute kidney injury, which was validated in two different hospitals. Furthermore, I conducted user evaluation to ascertain whether such an approach provides benefits compared to the state of the art and the extent to which clinical practitioners could benefit from it. Finally, when updating models for external validation, practitioners need to apply feature selection approaches to pinpoint the most relevant features, since electronic health records tend to contain several candidate predictors. Building upon interpretability methods, I developed an explanation-driven recursive feature elimination approach. This method was comprehensively evaluated against state-of-the art feature selection methods. Therefore, this thesis' main contributions are three-fold, namely, 1) designing and developing a software artifact tailored to the specific needs of the clinical modeling domain, 2) demonstrating its application in a concrete case in the Nephrology context and 3) development and evaluation of a new feature selection approach applicable in a validation context that builds upon interpretability methods. In conclusion, I argue that appropriate tooling, which relies on standardization and parametrization, can support rapid model prototyping and collaboration between clinicians and data scientists in clinical predictive modeling. N2 - Die Zahl der jährlich veröffentlichten Vorhersagemodelle in verschiedenen medizinischen Fachrichtungen nimmt stetig zu. Solche prognostischen oder diagnostischen Modelle helfen bei der medizinischen Entscheidungsfindung, indem sie zum Beispiel Vorhersagen zur Mortalität oder zum Krankheitsverlauf erlauben. Obwohl bereits Softwarewerkzeuge für die Entwicklung klinischer Vorhersagemodelle existieren, genügt der Stand der Technik noch immer nicht den Anforderungen klinischer Wissenschaftler. So kommt es, dass aktuelle Softwarewerkzeuge zur Modellentwicklung entweder 1) auf die Anforderungen von Datenwissenschaftlicher zugeschnitten sind und folglich Programmierkenntnisse voraussetzen, oder 2) zu generisch sind und somit den tatsächlichen Anforderungen klinischer Wissenschaftler nicht gerecht werden. Überdies wird die Reproduzierbarkeit der Modelle sowie die Durchführung und Validierung von Experimenten durch verteilte Datenbestände und Informationen, sogenannte Datensilos, stark eingeschränkt. Ähnlich verhält es sich bei der Akzeptanz von Modellen des maschinellen Lernens, welche ohne interpretierbare Erklärungen von Vorhersagen kaum gegeben sein dürfte. Eine auf diese Anforderungen klinischer Modellbildung ausgerichtete Softwarelösung kann dabei helfen, die identifizierten Herausforderungen bezüglich Modellentwicklung, -validierung und -interpretation zu bewältigen und die Akzeptanz und Nutzung unter Klinikern zu stärken. Um den Modellierungsprozess zu verstehen und zu eruieren, in welchem Ausmaß eine angemessene Softwarelösung den Stand der Technik voranbringen könnte, wurden im Zuge dieser Arbeit Interviews mit praktizierenden Modellierern im Gesundheitsbereich geführt. Daraus leiten sich funktionale und nichtfunktionale Anforderungen ab, die als Grundlage eines Softwareartefaktes für die Modellierung von Outcome- und Risikovorhersagen in der Gesundheitsforschung verwendet wurden. Um die Eignung meines Ansatzes zu verifizieren, habe ich den Anwendungsfall „akutes Nierenversagen“ im Bereich der Nephrologie in zwei verschiedenen Krankenhäusern betrachtet und validiert. Darüber hinaus wurde eine Nutzerevaluierung durchgeführt um herauszufinden, ob ein solcher Ansatz im Vergleich zum Stand der Technik Vorteile bietet und inwieweit klinische Praktiker davon profitieren können. Außerdem müssen praktizierende Kliniker bei der Aktualisierung von Modellen für die externe Validierung Ansätze zur Merkmalsselektion anwenden, da elektronische Gesundheitsakten in der Regel mehrere erklärende Merkmale enthalten. Aufbauend auf Methoden zur Interpretierbarkeit habe ich einen erklärungsorientierten rekursiven Eliminierungsansatz entwickelt. Dieser neue Ansatz wurde umfassend mit Standardverfahren der Merkmalsselektion verglichen. Daraus leiten sich folgende Forschungsbeiträge dieser Arbeit ab: 1) Entwurf und Entwicklung eines Softwareartefakts, welches auf die speziellen Bedürfnisse der klinischen Modellierungsdomäne zugeschnitten ist, 2) Demonstration seiner Anwendbarkeit für das konkrete Fallbeispiel „akutes Nierenversagen“ und 3) Entwicklung und Evaluierung eines neuen, auf Interpretierbarkeitsmethoden basierenden Ansatzes, zur Merkmalsselektion in einem Validierungskontext. Zusammenfassend ist zu folgern, dass ein geeignetes auf Standardisierung und Parametrisierung gestütztes Tool die schnelle prototypische Entwicklung und die Zusammenarbeit von Klinikern und Datenwissenschaftlern an klinischen Vorhersagemodellen unterstützen kann. KW - Predictive Modeling KW - Prädiktive Modellierung KW - Clinical Data KW - Klinische Daten KW - Künstliche Intelligenz KW - Vorhersagemodellierung KW - Überwachtes Lernen KW - Artificial Intelligence KW - Supervised Learning Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-514960 ER - TY - THES A1 - Hecher, Markus T1 - Advanced tools and methods for treewidth-based problem solving N2 - In the last decades, there was a notable progress in solving the well-known Boolean satisfiability (Sat) problem, which can be witnessed by powerful Sat solvers. One of the reasons why these solvers are so fast are structural properties of instances that are utilized by the solver’s interna. This thesis deals with the well-studied structural property treewidth, which measures the closeness of an instance to being a tree. In fact, there are many problems parameterized by treewidth that are solvable in polynomial time in the instance size when parameterized by treewidth. In this work, we study advanced treewidth-based methods and tools for problems in knowledge representation and reasoning (KR). Thereby, we provide means to establish precise runtime results (upper bounds) for canonical problems relevant to KR. Then, we present a new type of problem reduction, which we call decomposition-guided (DG) that allows us to precisely monitor the treewidth when reducing from one problem to another problem. This new reduction type will be the basis for a long-open lower bound result for quantified Boolean formulas and allows us to design a new methodology for establishing runtime lower bounds for problems parameterized by treewidth. Finally, despite these lower bounds, we provide an efficient implementation of algorithms that adhere to treewidth. Our approach finds suitable abstractions of instances, which are subsequently refined in a recursive fashion, and it uses Sat solvers for solving subproblems. It turns out that our resulting solver is quite competitive for two canonical counting problems related to Sat. N2 - In den letzten Jahrzehnten konnte ein beachtlicher Fortschritt im Bereich der Aussagenlogik verzeichnet werden. Dieser äußerte sich dadurch, dass für das wichtigste Problem in diesem Bereich, genannt „Sat“, welches sich mit der Fragestellung befasst, ob eine gegebene aussagenlogische Formel erfüllbar ist oder nicht, überwältigend schnelle Computerprogramme („Solver“) entwickelt werden konnten. Interessanterweise liefern diese Solver eine beeindruckende Leistung, weil sie oft selbst Probleminstanzen mit mehreren Millionen von Variablen spielend leicht lösen können. Auf der anderen Seite jedoch glaubt man in der Wissenschaft weitgehend an die Exponentialzeithypothese (ETH), welche besagt, dass man im schlimmsten Fall für das Lösen einer Instanz in diesem Bereich exponentielle Laufzeit in der Anzahl der Variablen benötigt. Dieser vermeintliche Widerspruch ist noch immer nicht vollständig geklärt, denn wahrscheinlich gibt es viele ineinandergreifende Gründe für die Schnelligkeit aktueller Sat Solver. Einer dieser Gründe befasst sich weitgehend mit strukturellen Eigenschaften von Probleminstanzen, die wohl indirekt und intern von diesen Solvern ausgenützt werden. Diese Dissertation beschäftigt sich mit solchen strukturellen Eigenschaften, nämlich mit der sogenannten Baumweite. Die Baumweite ist sehr gut erforscht und versucht zu messen, wie groß der Abstand von Probleminstanzen zu Bäumen ist (Baumnähe). Allerdings ist dieser Parameter sehr generisch und bei Weitem nicht auf Problemstellungen der Aussagenlogik beschränkt. Tatsächlich gibt es viele weitere Probleme, die parametrisiert mit Baumweite in polynomieller Zeit gelöst werden können. Interessanterweise gibt es auch viele Probleme in der Wissensrepräsentation (KR), von denen man davon ausgeht, dass sie härter sind als das Problem Sat, die bei beschränkter Baumweite in polynomieller Zeit gelöst werden können. Ein prominentes Beispiel solcher Probleme ist das Problem QSat, welches sich für die Gültigkeit einer gegebenen quantifizierten, aussagenlogischen Formel (QBF), das sind aussagenlogische Formeln, wo gewisse Variablen existenziell bzw. universell quantifiziert werden können, befasst. Bemerkenswerterweise wird allerdings auch im Zusammenhang mit Baumweite, ähnlich zu Methoden der klassischen Komplexitätstheorie, die tatsächliche Komplexität (Härte) solcher Problemen quantifiziert, wo man die exakte Laufzeitabhängigkeit beim Problemlösen in der Baumweite (Stufe der Exponentialität) beschreibt. Diese Arbeit befasst sich mit fortgeschrittenen, Baumweite-basierenden Methoden und Werkzeugen für Probleme der Wissensrepräsentation und künstlichen Intelligenz (AI). Dabei präsentieren wir Methoden, um präzise Laufzeitresultate (obere Schranken) für prominente Fragmente der Antwortmengenprogrammierung (ASP), welche ein kanonisches Paradigma zum Lösen von Problemen der Wissensrepräsentation darstellt, zu erhalten. Unsere Resultate basieren auf dem Konzept der dynamischen Programmierung, die angeleitet durch eine sogenannte Baumzerlegung und ähnlich dem Prinzip „Teile-und-herrsche“ funktioniert. Solch eine Baumzerlegung ist eine konkrete, strukturelle Zerlegung einer Probleminstanz, die sich stark an der Baumweite orientiert. Des Weiteren präsentieren wir einen neuen Typ von Problemreduktion, den wir als „decomposition-guided (DG)“, also „zerlegungsangeleitet“, bezeichnen. Dieser Reduktionstyp erlaubt es, Baumweiteerhöhungen und -verringerungen während einer Problemreduktion von einem bestimmten Problem zu einem anderen Problem präzise zu untersuchen und zu kontrollieren. Zusätzlich ist dieser neue Reduktionstyp die Basis, um ein lange offen gebliebenes Resultat betreffend quantifizierter, aussagenlogischer Formeln zu zeigen. Tatsächlich sind wir damit in der Lage, präzise untere Schranken, unter der Annahme der Exponentialzeithypothese, für das Problem QSat bei beschränkter Baumweite zu zeigen. Genauer gesagt können wir mit diesem Konzept der DG Reduktionen zeigen, dass das Problem QSat, beschränkt auf Quantifizierungsrang ` und parametrisiert mit Baumweite k, im Allgemeinen nicht besser als in einer Laufzeit, die `-fach exponentiell in der Baumweite und polynomiell in der Instanzgröße ist1, lösen. Dieses Resultat hebt auf nicht-inkrementelle Weise ein bekanntes Ergebnis für Quantifizierungsrang 2 auf beliebige Quantifizierungsränge, allerdings impliziert es auch sehr viele weitere Konsequenzen. Das Resultat über die untere Schranke des Problems QSat erlaubt es, eine neue Methodologie zum Zeigen unterer Schranken einer Vielzahl von Problemen der Wissensrepräsentation und künstlichen Intelligenz, zu etablieren. In weiterer Konsequenz können wir damit auch zeigen, dass die oberen Schranken sowie die DG Reduktionen dieser Arbeit unter der Hypothese ETH „eng“ sind, d.h., sie können wahrscheinlich nicht mehr signifikant verbessert werden. Die Ergebnisse betreffend der unteren Schranken für QSat und die dazugehörige Methodologie konstituieren in gewisser Weise eine Hierarchie von über Baumweite parametrisierte Laufzeitklassen. Diese Laufzeitklassen können verwendet werden, um die Härte von Problemen für das Ausnützen von Baumweite zu quantifizieren und diese entsprechend ihrer Laufzeitabhängigkeit bezüglich Baumweite zu kategorisieren. Schlussendlich und trotz der genannten Resultate betreffend unterer Schranken sind wir im Stande, eine effiziente Implementierung von Algorithmen basierend auf dynamischer Programmierung, die entlang einer Baumzerlegung angeleitet wird, zur Verfügung zu stellen. Dabei funktioniert unser Ansatz dahingehend, indem er probiert, passende Abstraktionen von Instanzen zu finden, die dann im Endeffekt sukzessive und auf rekursive Art und Weise verfeinert und verbessert werden. Inspiriert durch die enorme Effizienz und Effektivität der Sat Solver, ist unsere Implementierung ein hybrider Ansatz, weil sie den starken Gebrauch von Sat Solvern zum Lösen diverser Subprobleme, die während der dynamischen Programmierung auftreten, pflegt. Dabei stellt sich heraus, dass der resultierende Solver unserer Implementierung im Bezug auf Effizienz beim Lösen von zwei kanonischen, Sat-verwandten Zählproblemen mit bestehenden Solvern locker mithalten kann. Tatsächlich sind wir im Stande, Instanzen, wo die oberen Schranken von Baumweite 260 übersteigen, zu lösen. Diese überraschende Beobachtung zeigt daher, dass Baumweite ein wichtiger Parameter sein könnte, der wohl in modernen Designs von Solvern berücksichtigt werden sollte. KW - Treewidth KW - Dynamic Programming KW - Knowledge Representation and Reasoning KW - Artificial Intelligence KW - Computational Complexity KW - Parameterized Complexity KW - Answer Set Programming KW - Exponential Time Hypothesis KW - Lower Bounds KW - Algorithms KW - Algorithmen KW - Antwortmengenprogrammierung KW - Künstliche Intelligenz KW - Komplexitätstheorie KW - Dynamische Programmierung KW - Exponentialzeit Hypothese KW - Wissensrepräsentation und Schlussfolgerung KW - Untere Schranken KW - Parametrisierte Komplexität KW - Baumweite Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512519 ER - TY - THES A1 - Schmeiss, Jessica T1 - Designing value architectures for emerging technologies BT - empirical insights on the role of the firm in system-wide innovation N2 - The business model has emerged as a construct to understand how firms drive innovation through emerging technologies. It is defined as the ‘architecture of the firm’s value creation, delivery and appropriation mechanisms’ (Foss & Saebi, 2018, p. 5). The architecture is characterized by complex functional interrelations between activities that are conducted by various actors, some within and some outside of the firm. In other words, a firm’s value architecture is embedded within a wider system of actors that all contribute to the output of the value architecture. The question of what drives innovation within this system and how the firm can shape and navigate this innovation is an essential question within innova- tion management research. This dissertation is a compendium of four individual research articles that examine how the design of a firm’s value architecture can fa- cilitate system-wide innovation in the context of Artificial Intelligence and Block- chain Technology. The first article studies how firms use Blockchain Technology to design a governance infrastructure that enables innovation within a platform ecosystem. The findings propose a framework for blockchain-enabled platform ecosystems that address the essential problem of opening the platform to allow for innovation while also ensuring that all actors get to capture their share of the value. The second article analyzes how German Artificial Intelligence startups design their business models. It identifies three distinct types of startup with dif- ferent underlying business models. The third article aims to understand the role of a firm’s value architecture during the socio-technical transition process of Arti- ficial Intelligence. It identifies three distinct ways in which Artificial Intelligence startups create a shared understanding of the technology. The last article exam- ines how corporate venture capital units configure value-adding services for their venture portfolios. It derives a taxonomy of different corporate venture capital types, driven by different strategic motivations. Ultimately, this dissertation provides novel empirical insights into how a firm’s value architecture determines it’s role within a wider system of actors and how that role enables the firm to facilitate innovation. In that way, it contributes to both business model and innovation management literature. KW - Innovationmanagment KW - Emerging Technologies KW - Business Model KW - Artificial Intelligence KW - Blockchain KW - Ecosystem Y1 - 2019 ER -