TY - THES A1 - Bieneck, Steffen T1 - Soziale Informationsverarbeitung in der juristischen Urteilsfindung : experimentelle Untersuchungen zur Ankerheuristik T1 - Social information processing and legal decision making : experimental studies on anchoring and adjustment N2 - Heuristiken der Urteilsbildung umfassen bottom-up bzw. schemagesteuerte Strategien innerhalb der sozialen Informationsverarbeitung, mit deren Hilfe trotz unsicherer Datenlage hinreichend genaue Urteile gefällt werden können. Die Anker- und Anpassungsheuristik als eine Form solcher Faustregeln beschreibt im Wesentlichen die Wirkung von vorgegebenen Zahlen (den so genannten Ankerwerten) auf numerische Schätzungen. Urteile unter Unsicherheit sind zum Beispiel im Bereich der Rechtsprechung zu beobachten, wobei die Entscheidungsprozesse hier eher normativ auf der Basis der vorliegenden Informationen, d.h. einer datengesteuerten Verarbeitung, erfolgen sollten. In einer Serie von drei Experimenten wurde die Ankerheuristik auf den Bereich der Rechtsprechung übertragen. Mit Hilfe der Vignettentechnik wurden N = 229 Rechtsreferendare sowie N = 600 Studierende der Rechtswissenschaften zu ihrem Strafverhalten befragt. Im Mittelpunkt standen drei Zielsetzungen: (1) die Replikation und Erweiterung der Ankereffekts in Bezug auf eine größere Gruppe von Deliktarten; (2) die Analyse individueller Unterschiede in der Ankernutzung unter Berücksichtigung verschiedener Persönlichkeitsvariablen (Need for Cognition und Need for Cognitive Closure) sowie (3) die Anregung zu verstärkter systematischer Informationsverarbeitung durch die Indizierung einer Genauigkeitsmotivation. Der Ankereffekt in der juristischen Urteilsfindung konnte für die verschiedenen Deliktgruppen repliziert werden. Die Ergebnisse zeigen, dass die wahrgenommene Schwere der geschilderten Taten mit dem Strafmaß korrelierte. Dieser Zusammenhang wurde durch die Einführung von Ankerwerten deutlich reduziert. Entgegen den bisherigen Untersuchungen war zwar auch bei den Rechtsreferendaren ein Ankereffekt zu beobachten, der jedoch geringer ausfiel als bei den Studierenden der Rechtswissenschaften. Im Hinblick auf die Persönlichkeitsmerkmale konnte die Erwartung bestätigt werden, dass ein geringes Kognitionsbedürfnis sowie ein hohes Geschlossenheitsbedürfnis mit höherer Anfälligkeit für die Ankerheuristik einhergehen. Die Erzeugung eines Rechtfertigungsdrucks dagegen veranlasste die Probanden, sich intensiver mit den Materialien zu beschäftigen und eher datengeleitet vorzugehen. Implikationen für die juristische Praxis werden diskutiert. N2 - Decisions are usually based on beliefs about the likelihood that an uncertain event will occur (i.e., the results of an election or the liability of the accused). In estimating the likelihood of those events people often revert to heuristics as a theory-driven processing strategy in order to reduce the effort of the decision-making process. On the one hand heuristics might be quite helpful in controlling information processing; on the other hand they can lead to systematic biases in judgments. Anchoring and adjustment describe a judgmental heuristic, where individuals gauge numerical size by starting from an initial arbitrary or irrelevant value (an anchor) and adjusting it during the subsequent course of judgment to arrive at their final judgment. However, the adjustment of the judgment typically remains insufficient, thus leading to judgments that are biased in the direction of the starting value. The concept of judgmental heuristics can be applied to legal decision making. Legal decision-making is normatively defined as data-driven, which means that judgements about the culpability of a defendant need to be corroborated by evidence specific to the case at hand. Individuals involved in this process are required to assess the evidence without being affected by personal feelings and beliefs or by extraneous evidence. A series of three experiments tested the impact of anchoring and adjustment on legal decision making. Using the vignette technique, N = 229 junior barristers and N = 600 law students evaluated scenarios describing criminal offences. Apart from replicating the anchoring effect in different samples, the studies explored the impact of individual differences in personality variables (need for cognition and cognitive closure) on the anchoring effect. Further, a strategy to promote data-driven processing by inducing an accuracy motivation was evaluated. The results clearly indicate an anchoring effect in legal decision-making. The results showed a strong correlation between the perceived severity of the cases and the recommended sentence. This correlation was significantly reduced when an anchor was introduced. In contrast to previous studies, junior barristers showed a less extreme bias in their judgments compared to law students. In terms of individual differences regarding the readiness to engage in elaborate information processing the results showed a higher susceptibility for the anchoring information when need for cognition was low and need for cognitive closure was high. Introducing an accuracy motivation prompted the participants to engage in more data-driven processing, thus reducing the anchoring effect. The implications for social cognition research and legal practice are discussed. KW - Soziale Wahrnehmung KW - Heuristik KW - Angewandte Sozialpsychologie KW - Rechtspsychologie KW - Urteilsfindung KW - social cognition KW - legal decision making KW - applied social psychology KW - heuristics Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7843 ER - TY - JOUR A1 - Schlosser, Rainer T1 - Risk-sensitive control of Markov decision processes BT - a moment-based approach with target distributions JF - Computers & operations research : and their applications to problems of world concern N2 - In many revenue management applications risk-averse decision-making is crucial. In dynamic settings, however, it is challenging to find the right balance between maximizing expected rewards and minimizing various kinds of risk. In existing approaches utility functions, chance constraints, or (conditional) value at risk considerations are used to influence the distribution of rewards in a preferred way. Nevertheless, common techniques are not flexible enough and typically numerically complex. In our model, we exploit the fact that a distribution is characterized by its mean and higher moments. We present a multi-valued dynamic programming heuristic to compute risk-sensitive feedback policies that are able to directly control the moments of future rewards. Our approach is based on recursive formulations of higher moments and does not require an extension of the state space. Finally, we propose a self-tuning algorithm, which allows to identify feedback policies that approximate predetermined (risk-sensitive) target distributions. We illustrate the effectiveness and the flexibility of our approach for different dynamic pricing scenarios. (C) 2020 Elsevier Ltd. All rights reserved. KW - risk aversion KW - Markov decision process KW - dynamic programming KW - dynamic KW - pricing KW - heuristics Y1 - 2020 U6 - https://doi.org/10.1016/j.cor.2020.104997 SN - 0305-0548 VL - 123 PB - Elsevier CY - Oxford ER - TY - JOUR A1 - Schlosser, Rainer T1 - Scalable relaxation techniques to solve stochastic dynamic multi-product pricing problems with substitution effects JF - Journal of revenue and pricing management N2 - In many businesses, firms are selling different types of products, which share mutual substitution effects in demand. To compute effective pricing strategies is challenging as the sales probabilities of each of a firm's products can also be affected by the prices of potential substitutes. In this paper, we analyze stochastic dynamic multi-product pricing models for the sale of perishable goods. To circumvent the limitations of time-consuming optimal solutions for highly complex models, we propose different relaxation techniques, which allow to reduce the size of critical model components, such as the state space, the action space, or the set of potential sales events. Our heuristics are able to decrease the size of those components by forming corresponding clusters and using subsets of representative elements. Using numerical examples, we verify that our heuristics make it possible to dramatically reduce the computation time while still obtaining close-to-optimal expected profits. Further, we show that our heuristics are (i) flexible, (ii) scalable, and (iii) can be arbitrarily combined in a mutually supportive way. KW - multi-product pricing KW - substitution effects KW - data-driven demand KW - dynamic KW - programming KW - heuristics Y1 - 2020 U6 - https://doi.org/10.1057/s41272-020-00249-z SN - 1476-6930 SN - 1477-657X VL - 20 IS - 1 SP - 54 EP - 65 PB - Palgrave Macmillan CY - Basingstoke ER - TY - JOUR A1 - Schlosser, Rainer T1 - Heuristic mean-variance optimization in Markov decision processes using state-dependent risk aversion JF - IMA journal of management mathematics / Institute of Mathematics and Its Applications N2 - In dynamic decision problems, it is challenging to find the right balance between maximizing expected rewards and minimizing risks. In this paper, we consider NP-hard mean-variance (MV) optimization problems in Markov decision processes with a finite time horizon. We present a heuristic approach to solve MV problems, which is based on state-dependent risk aversion and efficient dynamic programming techniques. Our approach can also be applied to mean-semivariance (MSV) problems, which particularly focus on the downside risk. We demonstrate the applicability and the effectiveness of our heuristic for dynamic pricing applications. Using reproducible examples, we show that our approach outperforms existing state-of-the-art benchmark models for MV and MSV problems while also providing competitive runtimes. Further, compared to models based on constant risk levels, we find that state-dependent risk aversion allows to more effectively intervene in case sales processes deviate from their planned paths. Our concepts are domain independent, easy to implement and of low computational complexity. KW - risk aversion KW - mean-variance optimization KW - Markov decision process; KW - dynamic programming KW - dynamic pricing KW - heuristics Y1 - 2021 U6 - https://doi.org/10.1093/imaman/dpab009 SN - 1471-678X SN - 1471-6798 VL - 33 IS - 2 SP - 181 EP - 199 PB - Oxford Univ. Press CY - Oxford ER - TY - BOOK A1 - Dürsch, Falco A1 - Rein, Patrick A1 - Mattis, Toni A1 - Hirschfeld, Robert T1 - Learning from failure BT - a history-based, lightweight test prioritization technique connecting software changes to test failures N2 - Regression testing is a widespread practice in today's software industry to ensure software product quality. Developers derive a set of test cases, and execute them frequently to ensure that their change did not adversely affect existing functionality. As the software product and its test suite grow, the time to feedback during regression test sessions increases, and impedes programmer productivity: developers wait longer for tests to complete, and delays in fault detection render fault removal increasingly difficult. Test case prioritization addresses the problem of long feedback loops by reordering test cases, such that test cases of high failure probability run first, and test case failures become actionable early in the testing process. We ask, given test execution schedules reconstructed from publicly available data, to which extent can their fault detection efficiency improved, and which technique yields the most efficient test schedules with respect to APFD? To this end, we recover regression 6200 test sessions from the build log files of Travis CI, a popular continuous integration service, and gather 62000 accompanying changelists. We evaluate the efficiency of current test schedules, and examine the prioritization results of state-of-the-art lightweight, history-based heuristics. We propose and evaluate a novel set of prioritization algorithms, which connect software changes and test failures in a matrix-like data structure. Our studies indicate that the optimization potential is substantial, because the existing test plans score only 30% APFD. The predictive power of past test failures proves to be outstanding: simple heuristics, such as repeating tests with failures in recent sessions, result in efficiency scores of 95% APFD. The best-performing matrix-based heuristic achieves a similar score of 92.5% APFD. In contrast to prior approaches, we argue that matrix-based techniques are useful beyond the scope of effective prioritization, and enable a number of use cases involving software maintenance. We validate our findings from continuous integration processes by extending a continuous testing tool within development environments with means of test prioritization, and pose further research questions. We think that our findings are suited to propel adoption of (continuous) testing practices, and that programmers' toolboxes should contain test prioritization as an existential productivity tool. N2 - Regressionstests sind in der heutigen Softwareindustrie weit verbreitete Praxis um die Qualität eines Softwareprodukts abzusichern. Dabei leiten Entwickler von den gestellten Anforderungen Testfälle ab und führen diese wiederholt aus, um sicherzustellen, dass ihre Änderungen die bereits existierende Funktionalität nicht negativ beeinträchtigen. Steigt die Größe und Komplexität der Software und ihrer Testsuite, so wird die Feedbackschleife der Testausführungen länger, und mindert die Produktivität der Entwickler: Sie warten länger auf das Testergebnis, und die Fehlerbehebung gestaltet sich umso schwieriger, je länger die Ursache zurückliegt. Um die Feedbackschleife zu verkürzen, ändern Testpriorisierungs-Algorithmen die Reihenfolge der Testfälle, sodass Testfälle, die mit hoher Wahrscheinlichkeit fehlschlagen, zuerst ausgeführt werden. Der vorliegende Bericht beschäftigt sich mit der Frage nach der Effizienz von Testplänen, welche aus öffentlich einsehbaren Daten rekonstruierbar sind, und welche anwendbaren Priorisierungs-Techniken die effizienteste Testreihenfolge in Bezug auf APFD hervorbringen. Zu diesem Zweck werden 6200 Testsitzungen aus den Logdateien von Travis CI, einem oft verwendeten Dienst für Continuous Integration, und über 62000 Änderungslisten rekonstruiert. Auf dieser Grundlage wird die Effizienz der derzeitigen Testpläne bewertet, als auch solcher, die aus der Neupriorisierung durch leichtgewichtige, verlaufsbasierte Algorithmen hervorgehen. Zudem schlägt der vorliegende Bericht eine neue Gruppe von Ansätzen vor, die Testfehlschläge und Softwareänderungen mit Hilfe einer Matrix in Bezug setzt. Da die beobachteten Testreihenfolgen nur 30% APFD erzielen, liegt wesentliches Potential für Optimierung vor. Dabei besticht die Vorhersagekraft der unmittelbar vorangegangen Testfehlschläge: einfache Heuristiken, wie das Wiederholen von Tests, welche kürzlich fehlgeschlagen sind, führen zu Testplänen mit einer Effizienz von 95% APFD. Matrix-basierte Ansätze erreichen eine Fehlererkennungsrate von bis zu 92.5% APFD. Im Gegensatz zu den bisher bekannten Ansätzen sind die matrix-basierten Techniken auch über den Zweck der Testpriorisierung hinaus nützlich, und sind in der Softwarewartung anwendbar. Zusätzlich werden die Ergebnisse der vorliegenden Studie für Continuous Integration Systeme im Kontext integrierter Entwicklungsumgebungen validiert, indem ein Tool für Continuous Testing um Testpriorisierung erweitert wird. Dies führt zu neuen Forschungsfragen. Die Untersuchungsergebnisse sind geeignet die Einführung von Continuous Testing zu befördern, und untermauern, dass Werkzeuge der Testpriorisierung für produktive Softwareentwicklung essenziell sind. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 145 KW - test case prioritization KW - continuous integration KW - regression testing KW - version control KW - live programming KW - heuristics KW - data set KW - test results KW - GitHub KW - Java KW - Testpriorisierungs KW - kontinuierliche Integration KW - Regressionstests KW - Versionsverwaltung KW - Live-Programmierung KW - Heuristiken KW - Datensatz KW - Testergebnisse KW - GitHub KW - Java Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-537554 SN - 978-3-86956-528-6 SN - 1613-5652 SN - 2191-1665 IS - 145 PB - Universitätsverlag Potsdam CY - Potsdam ER -