Meldung
29.09.2021

Service-Meister: Entwicklung vertrauenswürdiger KI-Systeme

Der steigende Einsatz von Künstlicher Intelligenz im Zuge einer fortschreitenden Digitalisierung ermöglicht häufig effizientere und schnellere Prozesse. Gleichzeitig weisen KI-Systeme aber auch Angriffsflächen auf, die es zu untersuchen gilt. Das Projekt Service-Meister wird in diesem Bereich von seinem Konsortialpartner der Forschungsgruppe “Cybersicherheit für Künstliche Intelligenz” am Institut für Internet-Sicherheit – if(is) unterstützt.

Servicemeister-Logo
© Projekt Servicemeister
Servicemeister-Logo

Aufgrund ihrer hohen Komplexität bieten KI-Systeme potenzielle Angriffsflächen für die Manipulation der Entscheidungen von KI-Algorithmen. Ebenso sind cloudbasierte KI-Anwendungen von großen Konzernen verwundbar, wenn sie nicht richtig abgesichert werden. Dabei können Angriffe in drei Kategorien unterschieden werden:

Poisoning Attack: Hier fügt ein Angreifer bösartige Samples in die Trainingsdaten ein, um die Entscheidungen der betroffenen KI-Systeme so zu beeinflussen, dass das Modell zu seinen Gunsten falsche Entscheidungen trifft.
Evasion Attack: Bei dieser Form erzeugt ein Angreifer speziell gestaltete Eingaben, um eine falsche Entscheidung bei einem Modell zu verursachen. Diese können so gestaltet sein, dass sie von Menschen als normal wahrgenommen werden, aber von KI-Algorithmen falsch klassifiziert werden.
Exploratory Attack: Hier versucht ein Angreifer, ein KI-Modell nachzubauen oder Samples, die beim Training verwendet wurden, herauszufinden. Dies stellt Gefahr für den Datenschutz dar.

Beim Einsatz von KI ist daher die Frage nach einer zuverlässigen Anwendung zentral. Auch das Projekt Service-Meister, in welchem Technologien der künstlichen Intelligenz (KI) entwickelt werden, um Fachkräfte zu unterstützen, setzt auf zuverlässige KI als Wettbewerbsvorteil. Die Forschungsgruppe “Cybersicherheit für Künstliche Intelligenz” am Institut für Internet-Sicherheit forscht aktiv im Bereich der Entwicklung vertrauenswürdiger KI-Systeme und unterstützt das Projekt als Konsortialpartner. Neben konkreten Schutzmaßahmen stehen für das if(is) Forschungsarbeiten zum Einsatz von KI im Cybersicherheitskontext, sichere Authentifizierung, Botnetze, Datenschutz und Blockchain im Fokus.

Den vollständigen Artikel lesen Sie hier.