Refine
Has Fulltext
- no (2)
Document Type
- Article (2)
Is part of the Bibliography
- yes (2)
Keywords
Institute
Eine wichtige Voraussetzung für das Gelingen der Digitalisierung des Gesundheitswesens ist die digitale Risikokompetenz der Nutzer, also ihre Fähigkeit, Nutzen und Schaden von digitalen Technologien und Informationen zu beurteilen, digitale Angebote kritisch zu nutzen und sich auch mit statistischer Evidenz auseinanderzusetzen. Wie finden Menschen qualitätsgesicherte Gesundheitsinformationen und wie können sie die Qualität von algorithmischen Entscheidungssystemen besser beurteilen? In diesem narrativen Beitrag sollen zwei Ansätze aufgezeigt werden, wie die Fähigkeit zum informierten Entscheiden gefördert werden kann.
Evidenzbasierte und verlässliche Gesundheitsinformationen existieren im Internet, müssen aber von einer Vielzahl unzuverlässiger Informationen unterschieden werden. Verschiedene Institutionen im deutschen Sprachraum haben deshalb Anleitungen bereitgestellt, um Laien eine informierte Entscheidung zu erleichtern. Beispielsweise hat das Harding-Zentrum für Risikokompetenz in Potsdam für diese Zwecke einen Entscheidungsbaum („fast-and-frugal tree“) entwickelt. Im Umgang mit Algorithmen können natürliche Häufigkeitsbäume (NFTs) helfen, die Güte und Fairness eines algorithmischen Entscheidungssystems zu beurteilen.
Neben zuverlässigen und verständlichen digitalen Angeboten sollten weitere Werkzeuge für Laien zur Beurteilung von Informationen und Algorithmen entwickelt und bereitgestellt werden. Diese können auch in Schulungsprogramme zur digitalen Kompetenzförderung aufgenommen werden. Damit wäre ein wichtiger Schritt zum Gelingen der Digitalisierung in der Prävention und Gesundheitsförderung getan.
This study provides the first representative analysis of error estimations and willingness to accept errors in a Western country (Germany) with regards to algorithmic decision-making systems (ADM). We examine people's expectations about the accuracy of algorithms that predict credit default, recidivism of an offender, suitability of a job applicant, and health behavior. Also, we ask whether expectations about algorithm errors vary between these domains and how they differ from expectations about errors made by human experts. In a nationwide representative study (N = 3086) we find that most respondents underestimated the actual errors made by algorithms and are willing to accept even fewer errors than estimated. Error estimates and error acceptance did not differ consistently for predictions made by algorithms or human experts, but people's living conditions (e.g. unemployment, household income) affected domain-specific acceptance (job suitability, credit defaulting) of misses and false alarms. We conclude that people have unwarranted expectations about the performance of ADM systems and evaluate errors in terms of potential personal consequences. Given the general public's low willingness to accept errors, we further conclude that acceptance of ADM appears to be conditional to strict accuracy requirements.