Wie Algorithmen verständlich werden

Impulse

Download des Papiers als PDF

Algorithmen sind oft unsichtbar, aber alles andere als unwichtig für unser Leben. Sie erleichtern uns nicht nur den Alltag, suchen die schnellste Route von A nach B aus, schlagen Filme auf Netflix oder den nächsten Einkauf auf Amazon vor. Algorithmische Systeme können auch Muster in großen Datenmengen erkennen, wenn wir Menschen den Überblick verlieren, effizient berechnen, wofür wir Menschen viel mehr Zeit bräuchten, konsistent entscheiden, wo wir Menschen mit Vorurteilen kämpfen. Klug eingesetzt können Algorithmen die Welt besser machen, für mehr Chancengerechtigkeit und eine nachhaltigere Gesellschaft sorgen. Damit das gelingt, müssen wir uns ihrer Grenzen bewusst werden. Technologie ist kein Allheilmittel und wird nie fehlerfrei sein. Zum Beispiel können sich über die Daten, die Programmierung, die vorgegebenen Ziele oder die konkrete Software-Nutzung diskriminierende Muster einschleichen. Dann drohen Algorithmen im Gegenteil soziale Ungleichheit zu reproduzieren und gar zu verstärken.

Die gute Nachricht ist: Ob sich die Chancen oder die Risiken algorithmischer Systeme verwirklichen, liegt an uns. Wir als Gesellschaft müssen uns unserer Verantwortung stellen, dem Einsatz der Systeme klare Schranken setzen und zugleich ihre gemeinwohlorientierte Nutzung fördern. Im gesellschaftlichen Algorithmendiskurs dominieren bislang zu oft die Extreme: Verheißungsszenarien auf der einen oder Schreckensszenarien auf der anderen Seite.

Das Kooperationsprojekt „Algorithmen fürs Gemeinwohl“ der Bertelsmann Stiftung und der Stiftung Neue Verantwortung verfolgt daher bewusst einen komplementären Weg, der die gesellschaftlichen Chancen algorithmischer Systeme in den Blick nimmt, ohne vor den Risiken die Augen zu verschließen. In den vergangenen zwei Jahren haben wir drei exemplarische Anwendungsbereiche untersucht, in denen automatisierte Softwareentscheidungen (englisch: automated decision-making, kurz: ADM) besonders einflussreich für unser Leben sind.

Wir haben genau geprüft, wo die Chancen und Risiken algorithmischer Systeme liegen und wie sie gemeinwohlorientiert gestaltet werden können. Im Rahmen von vielfältig besetzten Workshops haben wir die transdisziplinäre Problemanalyse geschärft und den unmittelbaren Austausch über den gemeinwohlförderlichen Einsatz algorithmischer Systeme ermöglicht. Der erste intersektorale Workshop fand im April 2018 statt und widmete sich dem Thema „Vorausschauende Polizeiarbeit“ (Predictive Policing). Im Juli 2018 kamen Entwickler:innen, Personalmanager:innen, Wissenschaftler:innen, Vertreter:innen von Arbeitgeber:innen und des öffentlichen Sektors sowie Akteur:innen der Zivilgesellschaft zu einem zweiten Workshop zum Thema „Automatisierte Personalauswahl“ (Robo Recruiting) zusammen. Beim dritten Workshop im November 2018 standen Gesundheits-Apps im Mittelpunkt.

Das Projekt bewegte sich auf diese Weise vom Konkreten zum Allgemeinen: Durch den Blick auf spezifische Anwendungsbeispiele identifizierten wir wichtige Handlungsfelder der Algorithmengestaltung, verglichen diese miteinander und abstrahierten so übergreifende Erkenntnisse und Handlungsbedarfe, wie beispielsweise die Etablierung geeigneter Kontrollmechanismen, die Förderung von Interdisziplinarität bei der Entwicklung und Implementierung algorithmischer Systeme oder die Stärkung proaktiver und offener Kommunikation über den Einsatz der Technologie. In einer abschließenden Phase nimmt das Projekt ein spezifisches Handlungsfeld für eine gemeinwohlorientierte Algorithmengestaltung genauer in den Fokus: Die Schaffung von Transparenz und Nachvollziehbarkeit für Betroffene. Im Mittelpunkt steht die Frage, wie algorithmische Entscheidungsprozesse auch den Menschen verständlich gemacht werden können, die von ihnen betroffen sind.

Transparenz und Nachvollziehbarkeit sind Kernforderungen in der Debatte über den ethischen Umgang mit Algorithmen. Doch nur selten werden diese Forderungen bislang konkretisiert. Insbesondere mit Blick auf diejenigen, die von Entscheidungen betroffen sind – Bewohner:innen einer Stadt mit vorhersagender Polizeiarbeit (Predictive Policing), Bewerber:innen, deren Lebensläufe algorithmisch analysiert werden, oder Patient:innen, die Gesundheitsapps nutzen – bleiben viele Fragen offen. Das vorliegende Impulspapier möchte daher vor allem dazu beitragen, die Debatte zu strukturieren, indem es zunächst aufzeigt, warum Transparenz und Nachvollziehbarkeit für das Gemeinwohl wichtig sind (Kapitel 2), fünf verschiedene Dimensionen von Transparenz und Nachvollziehbarkeit konkretisiert (Kapitel 3) und verschiedene Herausforderungen bei der Schaffung von Transparenz und Nachvollziehbarkeit beleuchtet (Kapitel 4). Darüber hinaus wirft Kapitel 5 Nachvollziehbarkeit in der Praxis auch einen Blick in die drei konkreten Themenfelder, die während des Kooperationsprojekts im Mittelpunkt standen. Wie kann Nachvollziehbarkeit für Bürger:innen, Bewerber:innen und Patient:innen hergestellt werden? Und was lässt sich aus den Anwendungsbeispielen für andere Einsatzfelder lernen? Ziel ist es, das Thema Transparenz und Nachvollziehbarkeit anhand praktischer Beispiele greifbar zu machen. Am Ende stehen eine Checkliste für mehr Nachvollziehbarkeit von ADM (Kapitel 6) sowie Empfehlungen für politische Entscheidungsträger und Stellen, die algorithmische Systeme einsetzen (Kapitel 7). Auf diese Weise gestaltet sich unser abschließendes Impulspapier gleichermaßen praxisnah und lösungsorientiert über die Grenzen spezifischer Anwendungsfälle hinweg.

Wie nutzen wir „Algorithmen fürs Gemeinwohl“? Wenn es unserem Kooperationsprojekt gelungen ist, für dieses programmatische Ziel einige Antwortmöglichkeiten zu entwickeln, hat es sich für uns als Initiatoren sehr gelohnt. Wir danken insbesondere Leonie Beining, Tobias Knobloch und Carla Hustedt, die das Projekt mit ihrem großen Engagement und Weitblick, aber auch der nötigen Liebe zum Detail maßgeblich gestaltet haben. Unser gemeinsames Leitbild war dabei ein gedeihliches Zusammenspiel von Mensch und Maschine – dafür werden sich die Stiftung Neue Verantwortung und das Projekt Ethik der Algorithmen der Bertelsmann Stiftung auch künftig mit aller Kraft einsetzen!

Erschienen bei: 
Stiftung Neue Verantwortung
21. November 2019
Autoren: 

Leonie Beining, Projektleiterin "Algorithmen fürs Gemeinwohl"

Ansprechpartner: