Vertrauenswürdige KI? Verausschauende Politik!

Vertrauenswürdige KI? Verausschauende Politik!

Hermann, I., Kolliarakis, G., Molnár-Gábor, F., et al. (2020). Vertrauenswürdige KI? Verausschauende Politik! Berlin-Brandenburgische Akademie der Wissenschaften.

Die Ethics Guidelines for trustworthy AI der High Level Expert Group on Artificial Intelligence (AI HLEG) verlangen von einer KI-Anwendung, rechtmäßig, ethisch und robust zu sein, um das Prädikat „vertrauenswürdig“ zu erlangen. Eine rechtliche Analyse der Guidelines zeigt allerdings: Die rechtlichen Voraussetzungen für den vertrauenswürdigen Einsatz von KI werden mit Blick auf bereits existierendes Recht in den Guidelines bewusst ausgelassen. Es soll daher im Rahmen der folgenden Stellungnahme eine Methodik aufgezeigt werden, mithilfe derer die bisher fehlenden Leitlinien für eine rechtmäßige KI-Anwendung erarbeitet werden können. Die Methodik zeichnet sich durch ein kombiniertes deduktives und induktives Vorgehen aus. Es sollen, ausgehend von repräsentativen Fallstudien zu Anwendungsoptionen von KI in einem spezifischen Sektor, model rules aus einfachem sowie dem EU-Primärrecht entwickelt und u. a. ethisch und technisch beleuchtet werden. Die Methode ist anschließend auf verschiedene Sektoren auszuweiten. Durch einen Abgleich der Ergebnisse können sektorübergreifende Regeln für rechtmäßige KI-Anwendungen entwickelt werden, die die Richtlinien der AI HLEG sinnvoll ergänzen können. Aufgrund des induktiven Vorgehens werden die Besonderheiten der einzelnen Sektoren dabei hinreichend berücksichtigt. So können neben ethischen auch rechtliche Leitlinien zu einem vertrauensvollen Umgang mit KI-Anwendungen beitragen.