Explainable AI: Requirements, Use Cases and Solutions

Sind erklärbare KI-Anwendungen der wichtigste Schlüssel für Vertrauen in Künstliche Intelligenz? Wo steht die Anwendung von erklärbaren KI-Tools in der Wirtschaft? Antworten auf diese und weitere Fragen liefert die Studie – praxisnahe Use Cases inklusive. 

Is explainability the key for building trust in Artificial Intelligence? Where does the application of explainable AI tools stand today from a scientific and industrial perspective? The study provides answers to these and other questions - including practical use cases.

Studie Explainable AI Cover Englisch
Studie Explainable AI Cover
Die Studie steht nun auch auf Englisch zum Download zur Verfügung.

Die enormen Potenziale von Künstlicher Intelligenz werden inzwischen durch zahlreiche Produkte und Dienstleistungen in allen Lebensbereichen deutlich. Zu den zentralen Erfolgsfaktoren am Markt gehört die Erklärbarkeit von Entscheidungen, die KI-Anwendungen treffen: Ihre Erklärbarkeit stärkt die Akzeptanz der Technologie bei den Nutzer:innen. Sie ist vor allem aber auch bei Zulassungs- und Zertifizierungsverfahren sowie zur Erfüllung von Transparenzpflichten eine zentrale Voraussetzung. Die vorliegende Studie entstand im Rahmen der Begleitforschung zum Innovationswettbewerb „Künstliche Intelligenz als Treiber für volkswirtschaftlich relevante Ökosysteme“ (KI-Innovationswettbewerb) im Auftrag des Bundesministeriums für Wirtschaft und Energie. Sie befasst sich mit dem aktuellen Stand von erklärbarer KI und erläutert ihn anhand praxisnaher Use Cases, um KI-Entwickler:innen einen praktischen Überblick über potenzielle Erklärungsstrategien zu geben. 

The enormous potential of artificial intelligence has now become evident in the form of numerous products and services in all areas of life. One of the key success factors in the market is the explainability of decisions made by AI applications: Explainability strengthens the acceptance of the technology among users. However, it is also often a key prerequisite for approval and certification procedures and for fulfilling transparency obligations. This study was conducted as part of the accompanying research for the innovation competition "Artificial Intelligence as a Driver for Economically Relevant Ecosystems" (AI Innovation Competition) on behalf of the German Federal Ministry of Economics and Climate Action. It examines the current state of the art in explainable AI and illustrates its benefit through practical use cases to provide AI developers with practical guidance on available explanatory strategies.