Meldung
19.06.2020

Künstliche Intelligenz: Von der „Black Box“ zur „White Box“

Mit dem Siegeszug der Künstlichen Intelligenz (KI) als Kerntechnologie des digitalen Wandels stieg in den letzten Jahren auch die Vielfalt und Komplexität von KI-Systemen. Damit taten sich neue Herausforderungen in Bezug auf die Nachvollziehbarkeit von KI-Entscheidungen auf, die vor allem dort gefordert ist, wo von KI-Systemen kritische Entscheidungen getroffen werden. Vier Vertreter der Projekte FabOS, KEEN, KI-SIGS und Service-Meister des KI-Innovationswettbewerbs und eine Expertin der Bertelsmann-Stiftung diskutierten am 10. Juni Konzepte und praxisrelevante Methoden rund um die Erklärbarkeit von KI sowie die Notwendigkeit einer Zertifizierung von KI-Systemen.

„Wie wird die KI transparent“ – mit dieser Frage startete am 10. Juni die Webkonferenz zu Erklärbarkeit und Transparenz von KI, zu der sich ca. 220 Interessierte eingewählt hatten. Die Einführung in die Problematik und in gängige Praxismethoden, mit denen „Black Box“-KI-Systeme erklärbar werden, übernahm Prof. Marco Huber vom Fraunhofer IPA, der am KI-Projekt FabOS mitwirkt. Demnach gilt bei KI-Systemen die Faustregel: Je komplexer die KI aufgebaut ist und je höher die Ansprüche an das System in Hinblick auf seine Leistungsfähigkeit, desto undurchsichtiger wird im Allgemeinen das Lernverhalten der Algorithmen. Die Krux dabei: viele moderne KI-Systeme setzen notwendigerweise auf komplexere KI-Methoden wie beispielsweise neuronale Netze, da einfachere und leichter erklärbare KI-Systeme die anspruchsvollen Aufgaben oft nicht erfüllen können.

Wichtig ist die Nachvollziehbarkeit, um ungewollte Tendenzen in den Trainingsdaten oder Fehler in den Algorithmen aufzudecken. Das sichert die Zuverlässigkeit der eingesetzten KI-Systeme, die besonders dort ohne Alternative sind, wo Algorithmen kritische Entscheidungen treffen und Sicherheitsstandards eingehalten werden müssen. Warum erklärbare KI in vielen Bereichen also kein „nice-to-have“ sondern ein „must-have“ ist und mit welchen methodischen Ansätzen KI transparent und nachvollziehbar wird, erläuterten Prof. Alexander Löser, Prof. Philipp Rostalski und Prof. Leon Urbas am Beispiel ihrer KI-Projekte Service-Meister, KI-SIGS und KEEN.

Diskussion um KI-Zertifizierung
Lajla Fetic von der Bertelsmann-Stiftung und der AI Ethics Impact Group griff anschließend einen Aspekt auf, der bereits in den Vorträgen angeklungen und später zentraler Gegenstand der Podiumsdiskussion wurde: Die Zertifizierung von KI-Systemen. Sie betonte, dass es dringend Regeln für die Gestaltung und den Einsatz von algorithmischen Systemen braucht: Technologie ist nicht neutral, sondern kann genauso ungewollte Voreingenommenheit oder Fehler aufweisen wie Menschen. Dieser Forderung stimmten nicht nur die weiteren Experten der Runde zu, sondern in einer digital eingeschobenen Kurzumfrage auch fast 80 Prozent der Konferenzteilnehmer.

Im Anschluss entwickelte sich eine rege Diskussion dazu, wie Regeln für die Ausgestaltung und den Einsatz von intelligenten Algorithmen letztendlich umgesetzt und ggf. in Zertifizierungssysteme für KI übertragen werden können. Dabei waren sich die Experten einig: Es ist keine leichte Aufgabe, etwa die Erklärbarkeit von KI oder auch die Fairness einzelner Entscheidungen als Vorbedingungen für eine Zertifizierung messbar zu machen. Eine Herausforderung der kommenden Jahre wird darin bestehen, Schwellwerte für eine entsprechende Zertifizierung im jeweiligen Anwendungsgebiet festzulegen. Dabei ist es sinnvoll, die Anforderungen an KI-Zertifizierungen an den Anwendungskontext anzupassen.

Klar war am Ende der Konferenz auch: Bis es einen „KI-TÜV“ gibt, werden noch einige Jahre an Forschung und Diskussion ins Land gehen, denn die Diskussion um das „Wie“ der Zertifizierung steht noch am Anfang. Dass ein Zertifizierungssystem für KI jedoch notwendigerweise kommen wird, darüber waren sich alle Diskutanten einig.

Weiterführende Informationen