Meldung
04.05.2021

Experten Update: Explainable AI wird zu wichtigem Wettbewerbsfaktor am europäischen Markt

Die Teilnehmer:innen am Experten Update zum Thema „Explainable AI“ waren sich einig: Es gibt Branchen, in denen die Erklärbarkeit von KI-Modellen eine absolute Notwendigkeit ist. In anderen Branchen ist sie ein wichtiger Schlüssel für das Vertrauen in KI-Methoden und damit für die Entscheidung, sie überhaupt einzusetzen.

Screenshot aus dem Livestream des Experten Update vom 28. April 2021 zum Thema Erklärbarkeit von KI.
Experten Update: Erklärung erwünscht! Screenshot

Allein für Deutschland werden für das Jahr 2025 Umsätze in Höhe von 488 Milliarden Euro erwartet, die mit Dienstleistungen und Produkten erwirtschaftet werden, bei denen Anwendungen aus der Künstlichen Intelligenz (KI) zum Einsatz kommen. Das entspräche einem Anteil von 13 Prozent am Bruttoinlandsprodukt. Dabei ist die Erklärbarkeit von Entscheidungen auf Basis von KI-Modellen in wichtigen Anwendungsbranchen eine Voraussetzung für die Akzeptanz bei den Nutzenden, aber auch für Zulassungs- und Zertifizierungsverfahren und das Einhalten von Transparenzpflichten gemäß der Datenschutzgundverordnung (DSGVO). Zu diesem Ergebnis kommen die Autor:innen der Studie „Erklärbare KI – Anforderungen, Anwendungsfälle und Lösungen“, die von der Begleitforschung des KI-Innovationswettbewerbs im Auftrag des Bundesministeriums für Wirtschaft und Energie erarbeitet wurde (Download als PDF hier). Die Publikation fasst den aktuellen Stand der Technik und zum Einsatz von erklärbarer KI (Explainable Artificial Intelligence, XAI) zusammen und erläutert ihn anhand praxisnaher Use Cases. Vorgestellt wurde sie am 28. April 2021 beim zweiten Experten Update der Technologieprogramme Smarte Datenwirtschaft und KI-Innovationswettbewerb in Berlin.

Die Studie basiert auf den Ergebnissen einer Umfrage unter 209 KI-Expert:innen aus Wirtschaft und Wissenschaft sowie weiterführenden Interviews und Use Cases. Für sieben von 15 Branchen gaben die jeweiligen Vertreter:innen dieser Branchen an, dass die Nachvollziehbarkeit von Entscheidungen auf Grundlage von KI sehr wichtig ist, um beispielsweise Kundenanforderung zu erfüllen. Vor allem für die Gesundheitswirtschaft, wo es um Zulassungs- und Haftungsfragen geht, ist sie sogar zwingend notwendig, was auch Prof. Dr. Ute Schmid von der Universität Bamberg in der Diskussion bestätigte. Die Professorin für kognitive Systeme leitet auch die Gruppe zur erklärbaren Künstlichen Intelligenz am Fraunhofer-Institut für Integrierte Schaltungen IIS.

„Die Studie richtet sich an Anbieter:innen und Entwickler:innen von Systemen, die Produkte auf Basis von KI bereitstellen möchten und heute vor der Frage stehen, welche Anforderungen an die Erklärbarkeit eines Systems bestehen und wie diese adressiert werden können“, schreiben die vier Autor:innen. Dieser Punkt wurde auch im Experten Update aufgegriffen: Domänenexpert:innen und Entwickler:innen würden sich sehr gut mit den Produktionsanlagen und ihren Bausteinen auskennen, seien aber keine KI-Fachleute. Sie wollten nicht nur verstehen, welches KI-Modell zum Einsatz kommt, sondern auch, wie dieses Modell funktioniere, schilderte Prof. Dr. Axel-Cyrille Ngonga Ngomo von der Universität Paderborn seine Erfahrungen und Erkenntnisse aus dem Projekt RAKI, das im Rahmen der Smarten Datenwirtschaft gefördert wird. Im Fokus des Projekts steht die KI-getriebene Optimierung der Konfiguration und des Betriebs von Industrieanlagen und der Produktionslogistik.

Welche Methode zur Erklärbarkeit von KI die beste sei, lasse sich pauschal nicht sagen, beantwortete Nina Schaaf aus dem Förderprojekt FabOS eine der Zuschauerfragen. Helfen können dabei sogenannte Entscheidungsbäume, die Prof. Dr.-Ing. Leon Urbas von der Technische Universität Dresden zur Sprache brachte. Im Projekt KEEN aus dem KI-Innovationswettbewerb, an dem er mitarbeitet, werden KI-Anwendungen für die chemische und biotechnologische Industrie entwickelt. Einen solchen Entscheidungsbaum haben auch die Autor:innen der Studie in die Publikation aufgenommen.

Perspektivisch, in fünf bis zehn Jahren, wird Explainable AI auch für das Management, Endkund:innen und interne wie externe Prüfer:innen an Relevanz gewinnen. Die Erklärbarkeit von KI-Produkten gehört damit, zumindest im europäischen Kontext, zu den wichtigsten Faktoren für einen Erfolg am Markt. Die Expert:innen des Diskussionsformats kamen zu dem Schluss: Obwohl der erklärbaren KI eine große Bedeutung zukommt, steht die Forschung in diesem Bereich erst am Anfang. Vor allem auf die Mensch-KI-Interaktion sollte dabei ein Fokus gelegt werden. Grundlagenforschung ist gefragt – es liegt noch ein weiter Weg vor den Fachleuten.

Hier können Sie den Mitschnitt des Livestreams am 28.04.2021 on demand ansehen:

Weiterführende Informationen