Ansätze zur Analyse und Bewertung KI-basierter Empfehlungssysteme bei Internet-Intermediären

Im Alltag vieler Menschen spielen Empfehlungssysteme (engl. „recommender systems“) von Internetplattformen eine entscheidende Rolle. Denn egal, ob wir eine Suchmaschine, soziale Medien oder Videoplattformen nutzen, Algorithmen bestimmen, welche Inhalte den Nutzer:innen in welcher Reihenfolge und in welchem Kontext angezeigt werden. Hierbei kommt sog. Künstliche Intelligenz (KI) zum Einsatz, statistische Berechnungen, die die Anzeige bestimmte Inhalte wahrscheinlicher macht als andere. Trotz der Bedeutung dieser Systeme für die „digitale Öffentlichkeit“ ist die konkrete Ausgestaltung für Nutzer:innen ebenso wie für Politik, Forschung und Zivilgesellschaft nur schwer nachzuvollziehen. Ob bestimmte Inhalte systematisch benachteiligt oder bevorzugt werden, ob die Empfehlungssysteme zur Verbreitung von Hass und Desinformation beitragen und wie Nutzer:innen-Verhalten, Algorithmen und Plattform-Design ineinandergreifen, sind für eine demokratische Öffentlichkeit höchst relevante Fragen. Die Politik hat darauf reagiert und versucht, mit neuen Regulierungsvorhaben für mehr Transparenz und eine unabhängige Kontrolle algorithmischer Systeme auf den Plattformen zu sorgen.  

Doch bis heute ist weitgehend unklar, wie die mit der Forderung nach mehr Kontrolle einhergehenden Audits, Risikobewertungen und Transparenzpflichten konkret ausgestaltet werden sollen. Das gleiche gilt für die Frage, wer diese Verfahren durchführen kann und soll. Es gibt daher einen großen Bedarf, unabhängig von den Plattformen Ansätze zu entwickeln, die die KI-Empfehlungssysteme im Zusammenhang mit ihrer Einbettung im Plattformdesign und ihren Auswirkungen auf den öffentlichen Diskurs und die Gesellschaft im weiteren Sinne untersuchen.  

Genau dieser Herausforderung, „KI-basierte Empfehlungssysteme“ und die damit eng verbundenen Designpraktiken der Plattformen in den Blick zu nehmen, widmet sich das Projekt „Ansätze zur Analyse und Bewertung KI-basierter Empfehlungssystemen bei Internet-Intermediären“.  

Im Rahmen des Projekts sollen von einem interdisziplinären Team unter Einbeziehung relevanter Expertise aus Wissenschaft, Medienaufsicht, NGOs, und den betroffenen Plattformen selbst Ansätze entwickelt werden, was eine umfassende, sinnvolle Analyse der Plattformen und ihrer Wirkungen und Risiken beinhalten und wie sie durchgeführt werden könnte. Hierbei soll sowohl die technische Dimension zur Funktionsweise von KI-Empfehlungssystemen auf den Plattformen wie auch die soziale Dimension in Bezug auf das Plattformdesign und der Interaktion mit den Nutzer:innen berücksichtigt werden. 

Weitere Informationen zur Arbeit der SNV zum TikTok Audit finden Sie hier.

 

Gefördert von:

 

 

 

 

 

 

 

Zurück zur Projektseite Stärkung digitaler Öffentlichkeit und Plattformregulierung