Vertrauenswürdige KI durch Standards?

Impulse

Künstliche Intelligenz ist mittlerweile zentral für viele Lebensbereiche. Dementsprechend werden auch zunehmend höhere Ansprüche an KI-Systeme formuliert. Die Europäische Kommission und die Bundesregierung arbeiten derzeit an konkreten Vorschlägen zur Regulierung von Künstlicher Intelligenz (KI). Technische Standardisierung und Zertifizierung sind dabei ein vieldiskutierter Ansatz, um in Europa sogenannte vertrauenswürdige KI zu entwickeln und einzusetzen. 

Während die Standardisierung Anforderungen an ein Produkt spezifiziert, kann mittels einer Zertifizierung die Einhaltung dieser Standards sichergestellt werden. Grundsätzlich wird die technische Standardisierung von Unternehmen vorangetrieben. Im Vergleich zu Standards werden Normen eine größere Legitimität zugesprochen, da sie von staatlich anerkannten Organisationen und nach festgelegten Grundsätzen erarbeitet werden. Ihre Einhaltung ist zwar grundsätzlich freiwillig, es kann aber zum Beispiel mittels Gesetzgebung auf sie verwiesen werden. 

Standardisierung und Zertifizierung als Instrumente stehen im Kontext von KI jedoch vor erheblichen Herausforderungen, die einer stärkeren Debatte bedürfen: Zum einen müssen die Stärken und Schwächen bestehender Zertifizierungsregime in Europa in den Blick genommen werden. In verschiedenen Bereichen haben Standardisierung und Zertifizierung in Europa bereits heute mit Problemen zu kämpfen, die sich im Kontext von KI potenziell weiter verschärfen. Dazu zählen beispielsweise der hohe zeitliche Aufwand der Standardisierungsprozesse, die einmalige Prüfung vor Inverkehrbringung eines Produktes. Darüber hinaus gibt es Probleme bei der Marktüberwachung, der angesichts der Möglichkeit für Hersteller eine Selbsterklärung zur Konformität abzugeben, eine große Bedeutung zukommt.

Zum anderen verfügt KI über grundlegende Merkmale, die die Anforderungen an Standardisierung und Zertifizierung verändern und bisherige Prozesse infrage
stellen:
•    KI ist eine Basistechnologie, die einer äußerst hohen Forschungs- und Entwicklungsdynamik unterliegt, wodurch technische Standards potenziell sehr schnell veralten.
•    KI-Systeme agieren probabilistisch statt deterministisch, was die Definition und Überprüfung technischer Anforderungen erschwert.
•    KI-Systeme sind soziotechnische Systeme, deren potenzielle Auswirkungen auf die Gesellschaft und Kontextabhängigkeit besondere Ansprüche an Standardisierung und Zertifizierung stellen.

Zukünftig muss im Hinblick auf die Rolle von technischer Standardisierung bei KI angesichts der potentiellen gesellschaftlichen Auswirkungen von KI-Systemen zunächst geklärt werden, welche Bereiche durch freiwillige Selbstregulierung abgedeckt werden können und wo es die in demokratische Prozesse eingebettete Normung braucht. Abgesehen davon ist es wichtig, mehr über gesellschaftliche Beteiligung an technischer Standardisierung zu reflektieren und die Partizipation diverser Stakeholdergruppen zu fördern. Insgesamt werden Standardisierung und Zertifizierung nur einen gesellschaftlichen Nutzen haben können, wenn Kriterien sowie Prozesse gefunden werden, die aussagekräftige Bewertungen von KI ermöglichen. Dazu gehört zum Beispiel, die Forschung zu verallgemeinerbaren Prüfkriterien voranzutreiben, von Prüf- und Zertifizierungsprozessen in anderen Bereichen zu lernen und soziotechnische Kompetenzen im Rahmen der Standardisierung und Zertifizierung aufzubauen.