Neue EU-Regeln für digitale Dienste: Warum Deutschland eine starke Plattformaufsicht braucht

Publikationen

Autor: Dr. Julian Jaursch

Thema: Stärkung digitaler Öffentlichkeiten und Plattformregulierung

Englischsprachige Version: New EU Rules for Digital Services: Why Germany Needs Strong Platform Oversight Structures


Hinweis: Alle Angaben zu den Inhalten und Paragrafen des DSA sind noch vorläufig und basieren auf den letzten öffentlich verfügbaren Textversionen. Eine Übersicht dazu findet sich beim Europäischen Parlament. Sofern sich gegenüber der endgültigen Fassung des Gesetzes Änderungen ergeben, werden der Text und die interaktiven Schaubilder dementsprechend aktualisiert.

Executive Summary 

Mit dem Digitale-Dienste-Gesetz („Digital Services Act“, DSA), wird es erstmals in der Europäischen Union (EU) gemeinsame Regeln für Plattformen wie Instagram, Twitter, Amazon und auch kleinere Onlinedienste geben. Zwar hat der DSA einige Schwächen. Trotzdem ist er ein wichtiger Schritt auf dem Weg zu einem „transparenten und sicheren Online-Umfeld“ für Menschen in Europa, wie es in dem Dokument selbst heißt. So verpflichtet er beispielsweise Plattformen dazu, Nutzerbeschwerden zu erleichtern und transparenter mit Onlinewerbung umzugehen. Forschende sollen Zugriff auf Plattformdaten erhalten, um etwa die Inhaltemoderation und -löschung besser verstehen zu können. Doch so sinnvoll diese Neuerungen sind: Selbst die besten Regeln nützen wenig, wenn niemand sie durchsetzt. Die drängendste Frage lautet deshalb: Wer kümmert sich um die Durchsetzung des DSA?

Für sehr große Plattformen soll hauptsächlich die Europäische Kommission zuständig sein. Bei allen anderen digitalen Diensten werden Mitgliedstaaten darüber wachen, dass die Regeln eingehalten werden. Dafür muss jedes Land einen „Koordinator für digitale Dienste“ benennen („Digital Services Koordinator“, DSC). Dieser koordiniert aber nicht nur sämtliche nationale und europäische Stellen zum DSA, sondern beteiligt sich auch an der Aufsicht. Dem DSC kommt also eine zentrale Rolle zu, weshalb es eine bedeutsame Frage ist, wer in den Mitgliedsländern diese Aufgabe übernimmt.

In Deutschland ist noch unklar, wer die Einhaltung des DSA überwachen und die Funktion des DSC übernehmen soll. Mit Fragen der Plattformregulierung ist eine ganze Reihe deutscher Behörden und Institutionen befasst, für sich allein genommen erfüllt aber keine Stelle sämtliche Anforderungen. Das ist nicht überraschend, denn neue Gesetze erfordern oft neue Zuständigkeiten und Ressourcen. Doch für die Bundesregierung und deutsche Abgeordnete ergibt sich daraus nun die Notwendigkeit, über den Zuschnitt der Plattformaufsicht in Deutschland nachzudenken.

Es liegt nahe, bei der Suche nach einer passenden Plattformaufsicht zunächst bestehende Behörden in den Blick zu nehmen. Es dabei zu belassen, wäre aber eine verpasste Chance. Statt zu fragen, welche Einrichtung die Anforderungen des DSA am ehesten erfüllen könnte, sollte die Frage lauten: Wie kann die bestmögliche Stelle geschaffen werden? Politische Entscheidungsträger:innen in Deutschland sollten die Gelegenheit ergreifen, die Plattformaufsicht zu reformieren. Das wäre nicht nur dringend geboten, der Zeitpunkt ist dafür auch so günstig wie nie: Der DSA ist nicht das einzige EU-Gesetzesvorhaben zu Plattformen und Datenwirtschaft, weitere sind erst kürzlich beschlossen worden (Digitale-Märkte-Gesetz) oder sind in Arbeit (Künstliche-Intelligenz-Gesetz). Außerdem hat sich die Bundesregierung ohnehin vorgenommen, etwa die Medien- und Telekommunikationsgesetzgebung zu überarbeiten.

Wenn die Bundesregierung es mit einer starken Plattformaufsicht ernst meint, sollte sie Kompetenzen dafür im DSC gezielt aufbauen und zusammenführen, damit eine spezialisierte, eigenständige Aufsichtsstelle entsteht. Diese Stelle könnte sich unter anderem auf die Besonderheiten algorithmischer Inhaltemoderation oder von Empfehlungssystemen konzentrieren, ohne zugleich ihre angestammten Aufgaben weiter erfüllen zu müssen. Auf diese Weise anzuerkennen, dass für digitale Dienste – wie für viele andere Branchen auch – eine eigene Aufsichtsstelle sinnvoll ist, würde die Umsetzung des DSA stärken. Es wäre auch ein erster Schritt, um den allgemeinen Reformstau in Sachen Plattformregulierung hierzulande aufzulösen. Eine solche fachlich starke und gut ausgestatte unabhängige Stelle ist nötig, um Plattformen in Deutschland zu beaufsichtigen und auf EU-Ebene die Kommission bestmöglich dabei zu unterstützen.

1. Einleitung

In der Europäischen Union (EU) werden bald einheitliche, teils gänzlich unerprobte Regeln für digitale Plattformen wie Instagram, Twitter, YouTube und auch Onlinemarktplätze wie Amazon gelten. Die EU möchte die Regulierung solcher Plattformen nicht mehr allein auf die Moderation und Löschung bestimmter Inhalte ausrichten (auch wenn es dazu ebenfalls neue Regeln gibt). Vielmehr führt das Digitale-Dienste-Gesetz („Digital Services Act“, DSA) unternehmerische Sorgfaltspflichten ein, die den Plattformen mehr Transparenz und Rechenschaft abverlangen. Sehr große Plattformen sind angehalten, regelmäßig über Risiken zu berichten, die mit ihren Geschäftspraktiken einhergehen. Zudem müssen sie in bestimmten Fällen Forschenden Zugang zu Plattformdaten gewähren, damit Wissenschaftler:innen zum Beispiel besser verstehen können, wie Algorithmen der Plattformen funktionieren. Onlinewerbung soll klarer gekennzeichnet werden und die Plattformen müssen den Bürger:innen ein Verfahren anbieten, möglicherweise illegale Inhalte schnell und unkompliziert zu melden. Auch soll es in den Mitgliedstaaten Beschwerdestellen für Nutzende geben, um Verstöße gegen den DSA anzuzeigen. Das Regelwerk wird aller Voraussicht nach einen enormen Einfluss auf das Onlineumfeld haben, in dem sich viele Menschen tagtäglich bewegen. Viele der Regeln hat es bisher EU-weit noch nicht gegeben. Auch in den Mitgliedstaaten selbst gibt es nur wenige Erfahrungswerte hierzu. Neben der Frage, wie diese Regeln genau aussehen sollen, ist nun vor allem zu klären, wer sie umsetzen und dafür sorgen soll, dass Plattformen sich daran halten.

Für Millionen Internetnutzende in der EU wird sich an der Frage zur Aufsicht und Durchsetzung zeigen, wie gut der DSA im Alltag tatsächlich wirkt. Die besten Regeln nützen wenig, wenn Plattformen sie leicht umgehen können oder eine Nichteinhaltung nur schwer zu ahnden ist – weil etwa einzelne Behörden zu schwach sind oder die europäische Aufsicht generell zu löchrig ist. Solche Probleme werden seit Jahren im europäischen Datenschutz beobachtet, wo es zwar fortschrittliche Regeln, aber eine mangelhafte Durchsetzung gibt. Auch beim DSA besteht die Gefahr, dass ohne eine starke, konsistente Durchsetzung das ehrgeizige Ziel der EU verpufft, für ein „transparentes und sicheres Online-Umfeld“ zu sorgen (wie es im DSA wörtlich heißt). Im Gesetz gibt es deshalb Vorgaben für die Aufsichtsstrukturen, die sich deutlich von denen für den Datenschutz unterscheiden. Die Europäische Kommission und nationale Behörden sollen die Regeln gemeinsam umsetzen, es wird sich nicht auf einzelne nationale Behörden verlassen. Eine wichtige Rolle bei der Aufsicht sehr großer Onlineplattformen übernimmt die Kommission, für kleinere Plattformen sind Stellen auf nationaler Ebene zuständig. Jedes Mitgliedsland muss eine Behörde benennen, die die Durchsetzung des DSA koordiniert – sowohl zwischen Behörden innerhalb des Landes als auch auf europäischer Ebene. Diese Stelle kann eine bestehende sein oder neu geschaffen werden. Sie soll die Rolle des „Koordinators für digitale Dienste“ („Digital Services Coordinator“, DSC) übernehmen. Doch der Name trügt, denn der DSC ist mehr als nur ein Koordinator: Ihm werden auch spezielle Aufsichtsaufgaben eigens zugewiesen.

Wer kann und soll in Deutschland DSC sein? Diese Frage wird die Bundesregierung beantworten müssen. Zuständig dafür wird vorrangig das Bundesministerium für Digitales und Verkehr (BMDV) sein, weil es den DSA federführend bearbeitet. Das Ministerium wird einen Gesetzesentwurf vorlegen, in dem es einen potenziellen DSC vorschlägt, und dieser Vorschlag wird dann im Bundestag diskutiert.

Der Aufbau des DSC wird für die Bundesregierung eine zentrale Frage der Digitalpolitik sein, da ihm eine wichtige Rolle in der Aufsicht über digitale Plattformen zukommt, die den Alltag von so gut wie allen deutschen Bürger:innen und Unternehmen mitbestimmen. Neben der inhaltlichen Bedeutung besteht aus drei weiteren Gründen eine gewisse Dringlichkeit, die Frage zu beantworten:

  • Erstens gibt es bereits deutsche Behörden, die nach deutschem Recht Plattformen beaufsichtigen. Zum Beispiel hat das Land als eines der ersten Regelwerke zur Inhaltemoderation und -löschung eingeführt sowie Pflichten zu Transparenzberichten und Erklärungen zu Empfehlungssystemen eingeführt. Es muss geklärt werden, inwiefern sich diese Aufsichtsstrukturen bewährt haben und wie sie sich möglicherweise in den DSA (und auch weitere europäische und deutsche Gesetzesvorhaben zu Plattformen) einfügen.
  • Zweitens umfasst der DSA viele weitere Themen, die in Deutschland über unterschiedliche Politikfelder und politische Ebenen verstreut oder für die noch gar keine Behörden zuständig sind. Für diese Themen müssen Zuständigkeiten verteilt und Expertise aufgebaut werden.
  • Drittens bestehen Fristen. Der DSA soll ab spätestens 2024 gelten. In der Zwischenzeit muss Deutschland einen DSC gefunden und arbeitsfähig gemacht haben.

Ein erster Schritt bei der Bestimmung des DSC ist eine Bestandsaufnahme und Analyse, welche Aufgaben für ihn vorgesehen sind, inwiefern deutsche Institutionen diese Aufgaben schon ausfüllen und wo Lücken bestehen. In einem folgenden Schritt muss der DSC konkret ausgestaltet werden.

Dieser Text befasst sich hauptsächlich mit dem ersten Schritt: Er erläutert zunächst, was der DSC leisten soll und warum er so wichtig ist (Abschnitt 2). Daraus wird klar, dass der DSC mehr nur ein Koordinator ist, weil er neben den Koordinations- auch Aufsichtsaufgaben übernehmen muss. Dann liefert der Text eine Übersicht zur deutschen Plattformaufsicht, analysiert deren Stärken und Schwächen und zeigt, welche Fragen offen sind (Abschnitt 3). Die wichtigste Schlussfolgerung aus dieser Analyse ist, dass keine der bisherigen Stellen allein und ohne umfangreichen Kompetenzausbau die Aufgabe des DSC übernehmen kann. Daraus wiederum ergeben sich zwei Optionen für den DSC: ein „schwacher“ DSC, der hauptsächlich koordinierend tätig ist, und ein „starker“ DSC, der die wichtigen Aufsichtsaufgaben bewältigen kann (Abschnitt 4).

Deutsche Gesetzgeber:innen sollten jetzt die Gelegenheit ergreifen, einen starken, eigenständigen DSC zu schaffen und damit die Plattformaufsicht in Deutschland insgesamt zu stärken. Der DSA bietet einen Anstoß, nicht nur die darin vorgesehenen Regeln zur Plattformregulierung zu berücksichtigen, sondern auch weitere EU-Vorhaben wie den „Gesetzentwurf zu künstlicher Intelligenz“ und lange diskutierte Reformpläne zur deutschen Netz- und Medienpolitik. Deshalb ist gerade jetzt der Zeitpunkt so günstig, die deutschen Aufsichtsstrukturen neu zu ordnen, statt den Status Quo zu zementieren, der teils von Koordinationsschwierigkeiten und Kompetenzgerangel geprägt ist. Für die Entwicklung einer neuen Plattformaufsicht sind weitere Analysen zu rechtlichen und politischen Fragen nötig. Auch diesen zweiten Schritt wird die SNV in Zukunft mit konkreten Vorschlägen begleiten.

2. Der „Koordinator für digitale Dienste“ (DSC): Aufgaben und Anforderungen

In Kürze
Dem DSC kommt eine wichtige Funktion in der deutschen und europäischen Plattformaufsicht zu. Er ist mehr als nur ein Koordinator für den DSA. Zwar ist Koordination eine der wichtigsten Aufgaben für diese Stelle – sie muss den Informationsaustausch zwischen Behörden auf Landes-, Bundes- und EU-Ebene in mehreren Politik- und Rechtsfeldern sicherstellen. Doch sie ist auch Ansprechstelle für Bürger:innen und Forschende. Den DSA gegenüber sehr großen Plattformen durchzusetzen ist hauptsächlich Aufgabe der Kommission, aber der DSC spielt hier ebenfalls eine Rolle. Zudem ist der DSC dafür zuständig, dass kleinere Plattformen die Regeln einhalten.

Der DSA legt Regeln für digitale Dienste und Plattformen fest. Er macht erstmals EU-weite Vorschriften, die über die bislang gültigen Regeln zur Haftung von Plattformen hinausgehen. Das Gesetz enthält Vorgaben zu Meldewegen für illegale Inhalte, zur Transparenz von Onlinewerbung und den Zugang zu Plattformdaten für Forschende. Dabei sollen manche der vorgesehenen Regeln nur für sogenannte „sehr große Onlineplattformen“ gelten. Das sind Plattformen mit jeweils monatlich mindestens 45 Millionen Nutzenden in der EU. Eine ausführliche Analyse dazu, welche Kriterien für die Unterscheidung von Plattformen gelten sollen, welche Regeln es im Detail gibt und wie diese verbessert werden könnten, kann und soll hier nicht vorgenommen werden. Es reicht zunächst festzuhalten, dass der DSA insgesamt Plattformen ganz unterschiedlicher Art und Größe erfasst, von Cloud-Anbietern über Onlinemarktplätze, soziale Netzwerke und Video-Sharing-Seiten bis hin zu Suchmaschinen.

Für all diese Dienste will der DSA ein „transparentes und sicheres Online-Umfeld“ – wie es in einer seiner Kapitelüberschriften heißt – schaffen. Was das Onlineumfeld von Menschen in der EU „transparent und sicher“ macht, legt der Gesetzestext weit aus. Es kann sich zum Beispiel um verständliche, leicht zugängliche Informationen darüber handeln, wie die algorithmischen Empfehlungssysteme sozialer Medien funktionieren. Auch Produktsicherheit kann gemeint sein, wenn es etwa um gefälschte oder unsichere Produkte auf Onlinemarktplätzen geht. Der Schutz von Grundrechten ist ebenfalls abgedeckt. Hierzu sieht der DSA vor, dass große Plattformen Berichte erstellen müssen, in denen sie über mögliche Risiken etwa für Privatsphäre und Meinungsfreiheit aufklären. Der DSA geht also deutlich über Fragen der Haftung von Plattformen hinaus. Diese Fragen bildeten den Kern der E-Commerce-Richtlinie aus dem Jahr 2000. Der DSA aktualisiert und erweitert die Richtlinie und dreht sich stärker um Transparenzpflichten. Er berührt damit viele verschiedene Themen, etwa Verbraucher:innenschutz, Datenschutz, Medienregulierung und Telekommunikationsrecht.[1]

Die Aufsicht darüber, dass so unterschiedliche Plattformen die Regeln zu derart verschiedenen Themen einhalten, soll bei nationalen Behörden und der Europäischen Kommission liegen. Die Kommission übernimmt weitgehend die Aufsicht über „sehr große Onlineplattformen“. Für „nicht sehr große Onlineplattformen“ sind die Mitgliedsländer zuständig (wobei sehr kleine Plattformen wiederum von den Regeln des DSA befreit sind). Jedes Mitgliedsland muss benennen, welche Behörden für die Durchsetzung der Regeln zuständig sind. Da der DSA so viele Themen berührt, kommen in den meisten Mitgliedstaaten dafür viele unterschiedliche Behörden in Frage. Deshalb müssen die Länder zusätzlich festlegen, welche nationale Behörde als sogenannter Koordinator für digitale Dienste federführend für die Aufsicht und Durchsetzung verantwortlich sein soll. Es kann also sein, dass Regeln aus dem DSA in einem Mitgliedsland von mehreren Behörden durchgesetzt werden. Der DSC ist dabei eine Art erste Anlaufstelle für die Durchsetzung und Knotenpunkt für die EU-weite Koordination. Ihm werden zudem ausdrücklich bestimmte Teile der Durchsetzung zugewiesen. Es lassen sich zwei große Aufgabenfelder für den DSC beschreiben (siehe Schaubild 1):

Made with Flourish

Bitte im Schaubild auf die Stichworte klicken oder tappen, um die zugehörigen DSA-Artikel anzuzeigen.

Der DSC ist also nicht ausschließlich ein Koordinator, sondern wirkt selbst an der Durchsetzung des DSA mit. Ein genauerer Blick auf die Aufsichtsaufgaben verdeutlicht dies (siehe Schaubild 2). Der DSA sieht besondere „Sorgfaltspflichten“ vor, die speziell für sehr große Onlineplattformen gelten (Artikel 25 bis 33). Solche großen Plattformen müssen zum Beispiel Risikoberichte erstellen, haben erweiterte Transparenzpflichten und müssen eine Datenbank mit allen Onlineanzeigen anlegen. Doch diese Sorgfaltspflichten sind nur die Spitze der DSA-Pyramide: Die Basis des Regelwerks bilden Vorschriften, die nicht nur für sehr große, sondern für alle Onlineplattformen gelten (Artikel 8 bis 24; ausgenommen sind sehr kleine Plattformen). Diese Regeln schreiben unter anderem vor, dass Plattformen Meldewege für möglicherweise illegale Inhalte haben müssen, dass sie ihre algorithmische und menschliche Inhaltemoderation verständlich erklären müssen und dass sie Transparenzberichte dazu erstellen müssen.

Made with Flourish

Bitte im Schaubild auf die Stichworte und Icons klicken oder tappen, um die zugehörigen DSA-Artikel und weitere Informationen anzuzeigen.

Die Rolle des DSC als wichtiger Pfeiler der Durchsetzung wird zusätzlich deutlich, wenn die Kriterien betrachtet werden, die er erfüllen muss. Laut DSA muss jeder Mitgliedstaat dafür sorgen, dass sein DSC unabhängig, gut ausgestattet und transparent ist und bestimmte Befugnisse hat (siehe Schaubild 3). Diese Anforderungen gelten auch für alle anderen nationalen Behörden, die mit der Durchsetzung des DSA betraut sind.

Made with Flourish

Bitte im Schaubild auf die Stichworte klicken oder tappen, um weitere Informationen anzuzeigen.

Hinter den einzelnen Aufgaben und Befugnissen stehen wichtige weitergehende Fragen, die die Mitgliedstaaten beantworten müssen: Wie sollte eine Beschwerdestelle für Bürger:innen aussehen? Was muss getan werden, um ein System zur Zulassung von Hinweisgeber:innen für illegale Inhalte aufzubauen? Was genau heißt „Unabhängigkeit“ des DSC und wie kann sie sichergestellt werden? Welche Möglichkeiten für die Koordination und den Informationsaustausch gibt es bereits, welche müssen neu geschaffen werden und wie? Solche Fragen stellen sich in allen EU-Mitgliedsländern. In Deutschland kommt die Besonderheit hinzu, dass das Land bereits einige gesetzliche Regelungen zu Plattformregulierung erarbeitet hat und nun erwägen muss, wie diese mit dem DSA zusammengebracht werden können. Zudem wirft das föderale System Fragen auf, wie Behörden auf unterschiedlichen politischen Ebenen zusammenarbeiten dürfen und können.

3. Plattformaufsicht in Deutschland

In Kürze
Für sich genommen kann keine deutsche Stelle ohne umfassende Anpassungen alle Funktionen des DSC übernehmen. Überraschend ist das nicht: Neue Gesetze erfordern oft neue Expertise und Befugnisse. Zwar ist in deutschen Behörden schon Wissen zu Themen des DSA vorhanden. Dieses ist aber auf verschiedene Stellen verteilt und muss deutlich ausgebaut werden. Einen ganzheitlichen Ansatz der Plattformaufsicht, zu dem der DSA anregt, gibt es bislang nicht.

Deutschland hat in den vergangenen Jahren mehrere gesetzliche Reformen vorgenommen, die eine stärkere und spezialisierte Aufsicht über Plattformen vorsehen. In Deutschland werden daher einige der Regeln des DSA bereits erprobt, etwa solche für Transparenzberichte zur Inhaltemoderation. Zudem gibt es Einrichtungen, die bestimmte Themen aus dem DSA behandeln, zum Beispiel die Stellen der Selbstregulierung der Plattformen, die ein Meldesystem zur Prüfung möglicherweise illegaler Inhalte anbieten.

Der folgende Überblick (siehe Schaubild 4) bildet einige der deutschen Einrichtungen und Gesetze ab, die mit Plattformaufsicht zu tun haben. Er beleuchtet dabei nicht nur Stellen, die als DSC in Frage kommen oder diese Rolle aktiv ersuchen. Der DSC muss eine „Behörde“ sein, weshalb zum Beispiel Vereine ohne staatliche Befugnisse ausscheiden. Vielmehr soll das Schaubild darstellen, wie viele unterschiedliche Themen der DSA berührt. Die Übersicht erhebt dabei keinen Anspruch auf Vollständigkeit: Es gibt in Deutschland viele weitere Stellen, die sich mit den Themen des DSA im weiteren Sinn auseinandersetzen. Zum Beispiel spielt der Zoll beim Umgang mit gefälschten oder unsicheren Produkten eine Rolle, ebenso wie Behörden auf Länderebene – auch hier könnte es Berührungen mit dem DSA geben. Geht es um algorithmenbezogene Diskriminierung, könnte auch die Antidiskriminierungsstelle des Bundes von Bedeutung sein (und auch hier gibt es ähnliche Einrichtungen auf Länderebene). Das Bundesamt für Wirtschaft und Ausfuhrkontrolle (BAFA) muss risikobasierte Prüfungen von Unternehmen vornehmen, um deren Einhaltung der Sorgfaltspflichten zu ihren Lieferketten zu überwachen[2], was Anknüpfungspunkte zu den im DSA geforderten Risikoberichten bietet. Privatwirtschaftliche Organisationen könnten ebenfalls zur Umsetzung des DSA beitragen, etwa die Aktiengesellschaft TÜV Rheinland zu Standardisierung und Auditierung.[3] Auch Gesetze, deren Einhaltung bisher nicht von einer Behörde überwacht werden, spielen für Betrachtungen zum DSA eine Rolle: Zum Beispiel gibt es bereits Transparenzvorschriften und Pflichten zur Erläuterung von Algorithmen für Plattformen, die gewerbliche Nutzer:innen haben („Platform-to-business"-Verordnung, kurz P2B-Verordnung). Deutschland hat hierfür allerdings keine zuständige Behörde benannt, sondern überlässt die Durchsetzung den Gerichten.

Die Übersicht zeigt zum einen, dass an einigen Stellen in Deutschland bereits Erfahrungen im Umgang mit Plattformen bestehen, zum anderen aber, dass keine Behörde allein alle Anforderungen des DSA erfüllen kann.[4]

 

Made with Flourish

Bitte im Schaubild auf die Behörden klicken oder tappen, um weitere Informationen anzuzeigen.
↗ Das Schaubild in voller Größe in einem neuen Tab öffnen.

3.1 Welche Expertise zu den Aufgaben des DSC gibt es in Deutschland, wo sind Lücken?

Aufsicht und Durchsetzung

Dadurch, dass der Begriff „Koordinator“ Teil der Bezeichnung der neuen Stelle ist, wird der Aspekt der Koordination beim DSC in den Vordergrund gerückt. Aber der DSC soll die Durchsetzung des DSA nicht nur koordinieren, sondern ist auch selbst dafür mitverantwortlich. Für die Plattformen, die nicht als „sehr groß“ gelten, übernimmt der DSC die Aufsicht, und auch bei der Aufsicht für „sehr große“ Plattformen kann er beteiligt sein (siehe Schaubilder 1 und 2 in Abschnitt 1). Zudem gibt es spezielle Aufgabenbereiche, in denen der DSC unabhängig von der Plattformgröße aktiv werden soll. In Deutschland ist zu einigen Punkten noch keine Expertise vorhanden, zu anderen Punkten ist sie über viele Stellen verstreut. Ein ganzheitlicher Blick auf Plattformaufsicht, wie ihn der DSA zumindest anregt, ist dadurch nicht gegeben.

Eine wichtige Aufgabe des DSC betrifft Datenzugänge und -analyse. Hierzu gibt es Deutschland bisher nur wenig Erfahrungen, weshalb bestehende Strukturen deutlich erweitert werden müssten. Der DSC muss in der Lage sein, große Datenmengen von Plattformen anzufordern und zu analysieren. Der DSA sieht vor, dass sehr große Plattformen auf Verlangen Daten bereitstellen müssen, damit der DSC im Land der Plattformniederlassung und auch externe Forschende Untersuchungen anstellen können. In der Vergangenheit gelangte Fehlverhalten von Tech-Unternehmen hauptsächlich dann ans Licht, wenn Journalist:innen oder Forschende durch Leaks oder Whisteblower:innen an interne Daten kamen. Zum Beispiel legte Sophie Zhang Missstände bei Facebook im Umgang mit Desinformation offen[5] und Frances Haugen prangerte an, dass die Plattform mögliche negative Auswirkungen ihres Angebots auf Minderjährige billigend in Kauf nimmt[6]. Mit dem DSA soll es leichter werden, Daten der Plattformen zu erhalten und deren Funktionsweise so besser zu verstehen, was letztlich auch dabei helfen dürfte, die Regeln etwa für Inhaltemoderation und Transparenz langfristig zu verbessern. Auch wenn viele sehr große Onlineplattformen ihren Hauptsitz nicht in Deutschland haben: Welche Behörde könnte überhaupt selbst mit großen Mengen Daten umgehen, diese analysieren und daraus Schlüsse ziehen?

In vielen deutschen Behörden steht eine datengestützte Regulierung noch am Anfang. Die Notwendigkeit für und das Potenzial von Datenwissenschaften in Aufsichtsbehörden werden zwar erkannt, aber die Strukturen dazu befinden sich vielfach noch im Aufbau. Ein Beispiel für eine Behörde, die bereits mit Daten arbeitet und diese Aktivitäten weiter ausbaut, ist die Bundesnetzagentur. Beispielsweise empfängt die Netzagentur im Rahmen von Marktanalysen umfangreiche Datensätze. Darüber hinaus wird dort gezielt eine Unterabteilung aufgebaut, die verstärkt auf Datenwissenschaften setzt: Neben der historisch gewachsenen sektorspezifischen Aufsicht für Stromnetze oder Telekommunikation betrachtet die Unterabteilung „Internet, Digitalisierungsfragen“ nun nicht einzelne Sektoren, sondern bearbeitet unabhängig von vorgegebener Regulierung zum Beispiel Studien und Marktanalysen zu Plattformen oder bestimmten Einsatzgebieten von „Künstlicher Intelligenz“. Auch andere Stellen arbeiten mit großen Datensätzen und eigenen Datenbanken, zum Beispiel die Medienanstalten mit der Mediendatenbank oder die Marktbeobachtungen des Verbraucherzentrale Bundesverbands (vzbv). Solche Expertise müsste deutlich erweitert werden, damit Daten so genutzt werden können, dass Systeme für Inhaltemoderation, algorithmische Empfehlungen oder die Platzierung von Onlinewerbung besser verstanden werden. Dafür sind spezialisierte Fachleute aus Computer- und Datenwissenschaft nötig.[7] Zusätzlich bedarf es auch der Praxiserfahrung und Kenntnisse zu Soziologie, Antidiskriminierung, Menschenrechte und Psychologie. Neben der nötigen Expertise auch die Motivation vorhanden sein, Plattformdaten anzufragen und auszuwerten, was bislang selten Teil des Selbstverständnisses deutscher Behörden war.

Es ist aber nicht nur der DSC, der künftig Plattformdaten anfragen kann. Eine der bedeutendsten Innovationen des DSA ist es, dass Forschende ebenfalls diese Möglichkeit haben sollen. Auch hier spielt der DSC eine Rolle: Bevor Wissenschaftler:innen an Daten kommen, muss der DSC die Antragstellenden überprüfen („vetting“), indem zum Beispiel die Datenschutzkonzepte und Forschungszwecke kontrolliert werden. Eine solche Vorabkontrolle von Forschenden für die Datennutzung ist in deutschen Gesetzen bisher nicht vorgesehen, zumindest nicht durch Behörden. Plattformen können jeweils nach eigenen Regeln entscheiden, ob sie Daten zur Verfügung stellen und wenn ja, wem und auf welche Weise. Zwar gibt es in Deutschland Vorgaben, wie mit einem Antrag auf Datenzugang umzugehen ist. Doch erstens liegt die Prüfung bei den Unternehmen und nicht den Behörden, und zweitens gibt es bisher kaum Erfahrungswerte hierzu, da die Regeln erst seit Anfang 2022 gelten (hinsichtlich des NetzDG; siehe dazu unten). Ein indirekter Anknüpfungspunkt für eine Vorabkontrolle in der deutschen Behördenlandschaft sind Zertifizierungsverfahren etwa bei der BNetzA oder bei den Medienanstalten, wobei es hier oft um technische Systeme, zum Beispiel zur Altersverifikation, und nicht um Menschen geht. Es besteht also auch zur Vorabkontrolle eine Kompetenzlücke in Deutschland. Hier könnte sich ein Blick auf die Stärken und Schwächen der unterschiedlichen Ansätze der Tech-Unternehmen lohnen.

Die Regeln zum Datenzugang zu gestalten, ist also eine wichtige Aufgabe, die dem DSC speziell zugewiesen wird und für die in Deutschland nicht auf langjährige Erfahrungswerte zurückgreifen kann. Zu anderen Aufsichtsaufgaben des DSA gibt es schon Expertise, wobei diese auf mehrere Stellen verteilt ist und jeweils nur Ausschnitte des DSA berücksichtigt. Das ist zum Beispiel für die Frage zur Inhaltemoderation und der Entfernung möglicher illegaler Inhalte der Fall.

Der DSA sieht vor, dass Plattformen ihre Inhaltemoderation den Nutzenden verständlich erklären und jährlich darüber berichten müssen. Auch soll es Meldewege für möglicherweise illegale Inhalte geben („notice-and-action“-Verfahren). Wenn Plattformen von Behörden über illegale Inhalte informiert wurden, müssen die Unternehmen diese Inhalte löschen. Diese Regeln betreffen in Deutschland viele Behörden und Rechtsgebiete – sie können mit Produktsicherheit, Meinungsfreiheit, weiterem Grundrechtsschutz, dem Strafgesetzbuch oder mit alldem zu tun haben. Mit diesen vielfältigen Aspekten setzen sich unterschiedliche Regelwerke und Behörden auseinander. Einige wichtige deutsche Gesetze, die diese Teile des DSA berühren, sind der Medienstaatsvertrag (MStV) der Bundesländer, das Netzwerkdurchsetzungsgesetz (NetzDG) und das Jugendschutzgesetz (JuSchG). Sie befassen sich ausdrücklich mit Arten von Onlineplattformen, die auch im DSA abgedeckt sind. Anhand dieser Gesetze werden Stärken und Schwächen der deutschen Plattformaufsicht sichtbar.

Der MStV regelt maßgeblich die Medienaufsicht in Deutschland. Er trat nach jahrelangem Reformprozess Ende 2020 in Kraft, die dazugehörigen Satzungen teilweise erst Anfang 2022. Mit dieser Reform sind Landesmedienanstalten erstmals für „Medienintermediäre“ zuständig, was sich teils mit „Onlineplattformen“ aus dem DSA deckt. Medienintermediäre sind etwa soziale Netzwerke, Videoportale und Suchmaschinen, nicht aber Onlinemarktplätze, die im DSA ebenfalls behandelt werden. Die Medienanstalten sollen zum Beispiel sicherstellen, dass diese Dienste ihre Empfehlungssysteme erläutern. Im Gegensatz zu den weiter gefassten Zielen des DSA geht es bei dieser Transparenzvorgabe allerdings hauptsächlich um die Sicherung der Meinungsvielfalt. Andere Fragen des Grundrechtsschutzes werden nicht ausdrücklich behandelt, wohingegen der DSA sich auf alle Grundrecht bezieht und zum Beispiel Verbraucher:innenschutz und das Recht auf Privatsphäre ausdrücklich erwähnt.

Das Bundesamt für Justiz (BfJ) fokussiert sich aufgrund des NetzDG ebenfalls ausdrücklich auf die Aufsicht speziell von Onlineplattformen.[8] Mit Onlineplattformen sind im NetzDG soziale Netzwerke gemeint, es geht also nicht um Onlinemarktplätze, die im DSA auch abgedeckt sind. Das NetzDG sieht seit 2017 unter anderem vor, dass Plattformen für Nutzende Meldewege für möglicherweise illegale Inhalte bereitstellen und Berichte über Inhaltemoderation und -löschung vorlegen müssen. Diese Regeln gelten für Plattformen mit mindestens zwei Millionen registrierten Nutzenden in Deutschland, was eine deutlich niedrigere Schwelle ist als die 45 Millionen Nutzenden in der EU pro Monat, die laut DSA eine „sehr große Onlineplattform“ ausmachen. Das BfJ soll für die Einhaltung der Regeln sorgen, hatte allerdings lange dafür nur begrenzte Befugnisse. Erst durch eine spätere NetzDG-Reform, die seit Ende 2021 in Kraft ist, erhielt das BfJ überhaupt Aufsichtsbefugnisse für Onlineplattformen. Vorher war das Amt eine „Verfolgungsbehörde“ und durfte deshalb nicht vorsorglich mit Tech-Unternehmen in Kontakt treten, sondern nur in langwierigen, förmlichen Prozessen zu möglichen Gesetzesverstößen mit ihnen kommunizieren.[9] Das schwächte lange die NetzDG-Aufsicht.[10] Doch selbst bei den Maßnahmen, die vor der Reform erlaubt waren, gab es Schwächen: Zum Beispiel verhängte das BfJ ein Bußgeld gegen Facebook, doch der Konzern weigerte sich jahrelang ohne Konsequenzen, dieses zu zahlen.[11]

Anders als das BfJ ist die Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) ausdrücklich auf einen „dialogischen“ Regulierungsansatz ausgerichtet. Sie fußt auf dem Jugendschutzgesetz, das nach langer und teils konfliktreicher Diskussion zwischen Bund und Ländern 2021 in Kraft trat. Ähnlich wie bei den Landesmedienanstalten ist der thematische Fokus hier sehr eng begrenzt, denn es geht ausschließlich um Kinder- und Jugendschutz.

Diese Beispiele verdeutlichen, dass es in Deutschland ein Bewusstsein dafür gibt, dass es eigene Regeln für Plattformen braucht. Das deckt sich grundsätzlich mit dem DSA. Zudem haben die Gesetze bewirkt, dass in den zuständigen Behörden spezialisierte Expertise zu Plattformen aufgebaut wurde. Für andere Behörden gilt das ebenfalls, zum Beispiel für die BNetzA und auch das BKartA. Allerdings werden auch Schwächen deutlich, wenn die Aufgaben des DSC betrachtet werden: Eine Lehre aus der Entwicklung des BfJ ist es, dass der DSC mit Plattformen kommunizieren dürfen sollte und ausreichend Durchschlagkraft braucht, um sich gegebenenfalls gegen sie durchsetzen zu können. Medienaufsicht und Jugendmedienschutz kümmern sich um wichtige Aspekte des Grundrechtschutzes auch auf Plattformen, was mit den Zielen des DSA übereinstimmt. Allerdings decken sie eben nur Teilaspekte des DSA ab, der einerseits über soziale Netzwerke und andererseits über Fragen zur Meinungsvielfalt beziehungsweise des Jugendmedienschutzes hinausgeht. Eine weitere Herausforderung für den DSC ist es, die Besonderheiten kleinerer Plattformen zu berücksichtigen. In Deutschland liegt der Fokus der Plattformaufsicht oft auf sehr großen Onlineplattformen, die nach dem Inkrafttreten des DSA aber hauptsächlich von der Kommission beaufsichtigt werden sollen. Das ist etwa beim Bundeskartellamt der Fall, wo das Aufgabenfeld logischerweise meist größere Unternehmen und Unternehmenszusammenschlüsse umfasst. Auch der Blick der Medienanstalten richtete sich nach dem Inkrafttreten des Medienstaatsvertrags zum einen auf sehr große Plattformen[12] und zum anderen auf individuelle Blogs und Webseiten[13]. In Deutschland gibt es allerdings auch viele kleinere soziale Netzwerke und Onlinemarktplätze, die von den Regeln des DSA betroffen sein könnten. Anders als große, globale Tech-Konzerne sind sie weniger im Rampenlicht, stehen oft in einer mittelständischen Unternehmenstradition und haben weniger Ressourcen für politische und wirtschaftliche Vernetzung.[14] Noch mehr als größere Plattformen könnten sie davon profitieren, im Austausch mit einer Behörde zu stehen, die diese Rahmenbedingungen kennt und in der eigenen Kommunikationsarbeit berücksichtigt.

Anhand dieser Überlegungen wird deutlich: An mehreren Stellen in Deutschland gibt es vielversprechende Ansätze zur Plattformaufsicht, sei es zum Aufbau von datengestützter Aufsicht, sei es zu wichtigen inhaltlichen Themen, sei es zur Regulierung, die auf Dialog setzt. Es fehlt jedoch ein Fokus auf eine ganzheitliche, grundrechtsbezogene Plattformaufsicht, die gerade kleine bis mittelgroße Plattformen berücksichtigt. Der DSA fordert einen solchen Fokus nicht direkt von einem einzelnen DSC ein, aber die vorgesehenen Aufsichtsaufgaben regen zumindest dazu an, die entsprechende Expertise aufzubauen. Es lohnt sich daher, aus den vorhandenen Strukturen Lehren zu ziehen. Das heißt jedoch nicht, dass diese Strukturen die einzige Blaupause sind oder sein sollten. Parallelen zu anderen Industrien und regulatorischen Ansätzen gilt es zu berücksichtigen, aber soziale Netzwerke sind keine Fernsehsender und Onlinemarktplätze sind keine Postdienstleister. Dementsprechend muss das „institutionelle Design“ von Plattformregulierung auch auf einem „ganzheitlichen“ und nicht ausschnittsweisen Verständnis von Plattformen und Inhaltemoderation basieren.[15] Deutschland ist dank mehrerer Reformen bei der Medienregulierung, beim NetzDG und auch im digitalen Jugend- und Verbraucher:innenschutz zwar weiter als andere Länder, aber trotzdem noch deutlich von einem solchen ganzheitlichen Aufsichtsansatz entfernt.

Koordination und Kooperation

Deutschland hat bereits viele Erfahrungswerte zur Koordination unterschiedlicher Stellen, was dem DSC helfen könnte. Doch selbst mit diesen Erfahrungen ist offen, ob die Koordinationsaufgaben des DSC von bestehenden Stellen bereits erfüllt werden.

Beispiele für innerdeutsche Koordinationsmechanismen finden sich viele. Die Notwendigkeit hierfür ist gerade in den Politikfeldern ausgeprägt, in denen die Bundesländer eine wichtige Rolle spielen. Dies gilt etwa für den Datenschutz: Die Länderbehörden sind für die Aufsicht des Privatsektors in ihrem Bundesland zuständig. In der Datenschutzkonferenz (DSK) erarbeiten sie unter jährlich wechselndem Vorsitz gemeinsame Stellungnahmen oder Entschließungen. In der DSK ist zudem der Bundesbeauftragter für den Datenschutz und die Informationsfreiheit (BfDI) vertreten, der sich um die Datenschutzaufsicht der Bundesbehörden (und einiger privatwirtschaftlicher Sektoren) kümmert.

Auch in der Medienregulierung sind mit den Landesmedienanstalten Institutionen auf Länderebene für die Aufsicht zuständig, in diesem Fall über TV-Sender, Radiostationen und einige Internetangebote. Doch es gibt keine Bundesbehörde wie im Datenschutz. Auf Bundesebene gibt es allerdings eine gemeinsame Geschäftsstelle der Landesmedienanstalten, die ausdrücklich dafür geschaffen wurde, als „zentrale Anlaufstelle“ für die Landesmedienanstalten zu dienen und deren Arbeit zu koordinieren. Sie unterstützt zudem Gremien der Landesmedienanstalten auf Bundesebene, etwa die Direktorenkonferenz (DLM), die Kommission für Jugendmedienschutz (KJM) und die Kommission für Zulassung und Aufsicht (ZAK). Diese Gremien koordinieren nicht nur den Informationsaustausch oder das Verfassen von Stellungnahmen, sondern treffen regulatorische Entscheidungen der Medienaufsicht. Sie sind unterschiedlich aufgebaut: Teils bestehen sie ausschließlich aus Vertretungen der Landesmedienanstalten (wie bei der ZAK; die Kosten hierfür tragen die Landesmedienanstalten), teils nehmen auch andere Behörden- und Interessenvertretungen teil (wie bei der KJM).

Diese Beispiele offenbaren, wie unterschiedlich Koordinationsstrukturen in Deutschland aufgebaut sein können, je nach rechtlicher Grundlage und auch historischer Entwicklung. Die gemeinsame Geschäftsstelle ist eine ständig verfügbare Anlaufstelle und gibt selbst keine koordinierten Stellungnahmen ab. Damit ist sie anders aufgestellt als die Datenschutzkonferenz, deren Büro jährlich je nach Vorsitz wechselt und deren Koordinationsarbeit unter anderem im Verfassen gemeinsamer Stellungnahmen besteht. Beides wiederum unterscheidet sich von den weiteren Gremien der Medienregulierung, die nicht nur Vertretungen der Medienanstalten zusammenbringen, sondern auch die Aufsicht und Durchsetzung mitbestimmen.

Für die koordinierende Rolle des DSC kommt noch eine zusätzliche Facette hinzu: Es geht gerade nicht darum, ausschließlich Behörden aus einem Politikfeld zu koordinieren, wie das beim Datenschutz beziehungsweise der Medienregulierung der Fall ist. Der DSC muss sich mit Themen beschäftigen, die bislang bei unterschiedlichen Behörden angesiedelt waren. Zum Beispiel regelt der DSA, welche Daten für zielgerichtete Onlinewerbung genutzt werden dürfen, was einen starken Bezug zu Datenschutz hat, und er schreibt auch Meldewege für potenziell illegale Inhalte vor, was Fragen des Strafrechts berührt.

Auch für solch sektorübergreifende Behördenkommunikation gibt es Beispiele in Deutschland. Diese reichen von informellen und sporadischen Gesprächen über regelmäßige Treffen bis hin zu formalisierten Kooperationen. Gerade auf Arbeitsebene stehen Mitarbeitende unterschiedlicher Behörden informell im Austausch. Auf Leitungsebene gibt es sowohl ad-hoc Treffen (zum Beispiel, wenn Vertretungen von Medienanstalten und Bundesamt für Justiz das NetzDG diskutieren[16]) als auch regelmäßige Formate (wie die jährlichen Gespräche zwischen Medienanstalten und Bundeskartellamt[17] oder den Austausch zwischen dem BfDI und dem Bundesamt für Sicherheit in der Informationstechnik (BSI)). Die formale Zusammenarbeit kann sich zum Beispiel auf eine gemeinsame Untersuchung zu Messenger- und Videodiensten beziehen (wie beim Bundeskartellamt und BSI geschehen[18]) oder ein gemeinsames Verfahren im Umgang mit Beschwerden sein (wie es Bundesnetzagentur und Medienanstalten vereinbart haben[19]).

Diese ganz unterschiedlichen Koordinationsmechanismen sollten für den Aufbau des DSC gründlich evaluiert werden: Was für eine Art Koordination soll der DSC tatsächlich übernehmen? Wie verhält sich diese Funktion zu den eigenen Durchsetzungsaufgaben? Welche Formen des Informationsaustauschs und welche Koordinationsmechanismen haben sich bewährt? Welcher Grad an Institutionalisierung ist nötig? Ist ein Vorsitz sinnvoll und wenn ja, welcher Art?

Der DSC müsste mehrere Komponenten bisher bekannter Formate ineinander vereinen: Wie die DSK müsste er Bundes- und Länderbehörden zusammenbringen. Wie die KJM müsste er Koordinations- und Aufsichtsaufgaben vereinen. Wie die Verfahrensregeln von BNetzA und Medienanstalten müsste er den formalen Informationsaustausch zwischen Politikfeldern ermöglichen (siehe hierzu auch Abschnitt 4.1). Ein solches Gremium auf Bundesebene, das politikfeldübergreifend sowohl Koordinations- als auch Aufsichtsfunktionen übernimmt, gibt es bislang für die Plattformaufsicht nicht.

Neben der innerdeutschen Koordination kommt der Austausch auf europäischer Ebene als Aufgabe für den DSC hinzu. Auch hierzu gibt es Erfahrungen bei deutschen Behörden, vor allem wegen ihrer Arbeit in europäischen Behördennetzwerken. Solche Netzwerke gibt es zu fast allen Themen (siehe Schaubild 4 in Abschnitt 1), sie sind aber unterschiedlich stark ausgeprägt und institutionalisiert. Die ERGA zum Beispiel, das Netzwerk europäischer Medienaufsichtsbehörden, ist noch relativ jung, hat kein eigenes Büro und kann auf Anfrage der Kommission Meinungen übermitteln. Die BEREC hingegen, das Netzwerk der Telekommunikationsregulatoren in der EU, wurde in einer eigenen Verordnung als EU-Gremium etabliert, unterhält ein Büro und seine Stellungnahmen müssen von der Kommission berücksichtigt werden. In beiden Fällen – und auch zum Beispiel im Wettbewerbsrecht oder Verbraucher:innenschutz – ermöglichen solche EU-Netzwerke es deutschen Stellen, sich mit anderen europäischen Behörden sowie der Europäischen Kommission auszutauschen. Das ist eine wichtige Aufgabe des DSC, zu der demnach viele deutsche Stellen bereits Erfahrungen haben.

Die europäischen Netzwerke sind teilweise auch untereinander verbunden oder zumindest im Austausch miteinander. Ein Beispiel dafür sind Treffen zwischen BEREC und ERGA[20] oder die Beteiligung der BNetzA im europaweiten Netzwerk der Verbraucher:innenschutzbehörden („Consumer Protection Cooperation“, CPC) zu Geoblocking. Dennoch ist dieser Austausch auf EU-Ebene über mehrere Themenfelder hinweg weniger stark ausgeprägt. Auch das muss der DSC aber leisten, etwa als Teil des neu geschaffenen „Europäischen Gremiums für digitale Dienste“. Dieses Gremium soll aus allen DSCs bestehen, was bedeutet, dass hier Regulatoren aus unterschiedlichen Bereichen vertreten sein könnten. Zum Beispiel hatte Frankreich seinen reformierten Medienregulierer als DSC ins Spiel gebracht. In anderen Ländern könnten es hingegen Verbraucher:innenschutz- oder Telekommunikationsregulierer oder ganz neu geschaffene Stellen sein. Über die Zusammenarbeit im Gremium hinaus kann es auch konkrete Fälle geben, in denen verschiedene DSCs gemeinsam Untersuchungen durchführen oder Informationen austauschen. Für den deutschen DSC sollten deshalb Erfahrungswerte zu themen- und grenzüberschreitenden Aufsichtsstrukturen gesammelt werden.

3.2 Wo erfüllt Deutschland die Anforderungen an den DSC, wo sind Lücken?

Unabhängigkeit

Der DSC beziehungsweise Plattformaufsicht generell muss dazu beitragen, dass die Grundrechte der Menschen Vorrang vor politischen und profitgetriebenen Absichten haben. Deshalb ist die „völlige Unabhängigkeit“, die der DSA vom DSC fordert, so wichtig. Gerade weil es beim DSA auch um Systeme der Inhaltemoderation geht, muss das Risiko einer Vereinnahmung durch unternehmerische und politische Interessen so gering wie möglich gehalten werden. Weder Politiker:innen noch Tech-Konzerne sollten ungeprüft und ohne öffentliche Kontrolle ihre jeweiligen Interessen beim DSC durchsetzen können. Gleichzeitig muss externe Expertise Berücksichtigung finden, etwa aus Wissenschaft, Zivilgesellschaft und auch Wirtschaft. Zumal es nicht im Sinne der EU-Gesetzgeber:innen sein dürfte, den DSC in einem luftleeren Raum zu schaffen, in dem er niemandem Rechenschaft schuldig ist. Dies wäre auch mit dem deutschen Verfassungsrecht nicht vereinbar. Es stellt sich also die Frage, was genau mit „völliger Unabhängigkeit“ gemeint ist.

Ein Blick auf bisherige Regulierungsstrukturen kann zumindest etwas Klarheit schaffen und offenbart, dass in Deutschland nicht viele Institutionen an die geforderte völlige Unabhängigkeit herankommen. Einen wichtigen Anhaltspunkt, was dies bedeutet, liefert ein Urteil des Europäischen Gerichtshof zu Deutschlands Datenschutzaufsicht. Das Gericht urteilte 2010, dass der deutsche Bundesdatenschutzbeauftragte nicht „völlig unabhängig“ sei. Daraufhin musste Deutschland seine eigenen Datenschutzregeln ändern. Nach langen Reformprozessen wurde der BfDI 2016 von einer „Bundesoberbehörde“, die beim Bundesinnenministerium angesiedelt war, zu einer „obersten Bundesbehörde“.[21] Letztere untersteht keiner Fach- oder Rechtsaufsicht durch ein Bundesministerium mehr. Wenn ein Ministerium die Fachaufsicht über eine Behörde innehat, kann es in die inhaltliche Arbeit der Behörde eingreifen. Die Rechtsaufsicht ist beschränkter: Hier geht es nur um eine Prüfung, ob die Verwaltung rechtmäßig handelt.[22] Es wurde also für mehr Unabhängigkeit gesorgt, indem die Behördenstruktur, insbesondere die Zuordnung zu einem Ministerium, geändert wurde. Zudem hat der BfDI auch einen eigenen Haushaltsplan. Das bringt zusätzliche Unabhängigkeit, bedeutet jedoch auch, dass die Behörde selbst um ihr Budget kämpfen muss und sich dafür nicht – wie andere Behörden – auf ein übergeordnetes Bundesministerium verlassen kann.

Reformen, um für mehr Unabhängigkeit zu sorgen, könnten aufgrund eines anderen Gerichtsurteils auch bei der BNetzA anstehen. Diese Stelle kann als teilweise unabhängig eingeschätzt werden. Sie ist eine Bundesoberbehörde, untersteht also der Aufsicht der Bundesregierung. Aber Regulierungsentscheidungen – zum Beispiel zu Entgelten beim Gasnetzzugang – werden in Beschlusskammern gefasst, deren Entscheidungen nicht von Bundesministerien aufgehoben werden können. Diese Unabhängigkeit muss allerdings noch weiter gestärkt werden, zunächst wenigstens für die Energieregulierung. Denn hierzu monierte der Europäische Gerichtshof im Herbst 2021, dass der Staat Regulierungsentscheidungen zu stark vorstrukturieren könne.[23] Es werden also auch hier Umbauten nötig sein. Bis diese umgesetzt sind, ist fraglich, inwiefern die „völlige Unabhängigkeit“ gegeben ist.[24] Ähnlich ist die Lage beim BfJ. Es untersteht der Fach- und Rechtsaufsicht des Bundesjustizministeriums. Diese Struktur stand hinsichtlich der NetzDG-Aufgaben der Behörde lange in der Kritik. Das Verwaltungsgericht Köln führte dies in einem Beschluss zum NetzDG aus und bestätigte die fehlende Unabhängigkeit des BfJ.[25] Anders ist bei Stellen wie dem Deutschen Institut für Menschenrechte (DIMR) und dem vzbv, die zwar finanziell stark auf den Bundestag beziehungsweise die Bundesregierung angewiesen (wobei sie allerdings auch Drittmittel einwerben), aber keinem Ministerium unterstehen.

Als sehr nah an völliger Unabhängigkeit werden die Medienanstalten bewertet, auch wenn sich ihr Aufbau und ihre Rechtsgrundlage nicht direkt mit den Strukturen von Bundesbehörden vergleichen lassen. Die Unabhängigkeit der Landesmedienanstalten lässt sich auf die vom Bundesverfassungsgericht geprägte „Staatsferne“ des öffentlich-rechtlichen Rundfunks in Deutschland zurückführen.[26] Die Medienanstalten betonen immer wieder die Staatsferne, insbesondere mit Blick auf EU-Gesetzesvorhaben wie den DSA.[27] Ein Aspekt dieser Staatsferne ist, dass die jeweilige Leitung der Landesmedienanstalt meist von einem pluralistischen Gremium gewählt wird. Dieses Gremium darf keine Mitglieder haben, die auch einem Gesetzgebungsorgan angehören, also etwa dem Landesparlament. Für die Leitung der Medienanstalten selbst gibt es allerdings kaum Beschränkungen, sodass viele Direktor:innen direkt zuvor in Landesministerien oder bei regulierten Medienunternehmen gearbeitet haben.

Die Umstrukturierungen bei deutschen Behörden aufgrund europäischer Gesetze und Urteile zeigt, dass die Ansprüche an die „völlige Unabhängigkeit“ hoch sind. Viele Vorbilder für diese völlige Unabhängigkeit des DSC gibt es in Deutschland nicht. Auf eine Fachaufsicht durch die Bundesregierung zu verzichten und eine Rechenschaftspflicht gegenüber dem Parlament (anstelle eines Ministeriums) einzuführen, erscheint als Mindestmaß geboten. Die Gesetzgeber:innen könnten zudem festlegen, dass die Leitungsebene des DSC während sowie einige Monate vor und nach der Tätigkeit beim DSC nicht bei den regulierten Plattformen arbeiten darf (also eine Art Karenzzeitregelung nicht nur für Politiker:innen und Beamtete). Die Unabhängigkeit des DSC sicherzustellen wirft demnach viele Fragen auf. Dies wird eine der zentralen Herausforderungen beim Aufbau des deutschen DSC. Die weiteren Anforderungen wie etwa zu Transparenz oder Befugnissen stellen politische Entscheidungsträger:innen vor weniger schwierige Fragen.

Transparenz

Eine regelmäßige Berichtspflicht ist für viele deutsche Behörden üblich, hier bieten sich also zahlreiche Anknüpfungspunkte für den DSC. So könnte etwa die Verpflichtung, welcher der BfDI folgen muss, als Vorbild dienen (§ 15 Bundesdatenschutzgesetz): Er muss seinen jährlichen Tätigkeitsbericht nicht nur an Bundestag, Bundesrat und Bundesregierung übermitteln, sondern auch der Öffentlichkeit, der Kommission und dem Europäischen Datenschutzausschuss zugänglich machen. Eine Übermittlung an das Europäische Parlament könnte zusätzlich erwogen werden.

Für die Berichte des DSC sind allerdings nicht nur die gesetzlichen Grundlagen wichtig. Vielmehr sollten Lehren aus der Gestalt und dem Gehalt der Tätigkeitsberichte gezogen werden. Eine vergleichende Bewertung unterschiedlicher Berichte bestehender Behörden könnte hilfreich sein, um gute Beispiele zu sammeln. Es sollte zudem für den DSC ausdrücklich festgehalten sein, dass die Berichtspflicht für die Aufgaben der Plattformaufsicht gilt. Das BfJ zum Beispiel veröffentlicht zwar Tätigkeitsberichte, allerdings nur zu bestimmten Arbeitsbereichen. Zum NetzDG – also dem Thema mit Bezug zur Plattformaufsicht – gibt es keine Berichtspflicht, was eine öffentliche Kontrolle der Behörde auf diesem Gebiet erschwert.

In Verbindung mit den Überlegungen zur Unabhängigkeit des DSC könnte über ein eigenes Transparenzregister nachgedacht werden, das in Echtzeit (und nicht etwa nur in jährlichen Berichten) die Kontakte der Aufsicht insbesondere mit der Wirtschaft dokumentiert. Dies ist bei deutschen Behörden bislang nicht üblich. Die öffentliche Dokumentation von Kontakten könnte aber sowohl Transparenz als auch Unabhängigkeit des DSC erhöhen.

Ressourcen

Eine angemessene technische und finanzielle Ausstattung und qualifiziertes Personal sind gerade für die Plattformaufsicht wichtig, weil erstens spezielles technisches Fachwissen dafür nötig ist und zweitens die beaufsichtigten Unternehmen zu den reichsten und einflussreichsten der Welt gehören. Auch in länger regulierten Industrien gibt es komplexe, technische Sachverhalte, doch diese sind selten so verwoben mit Grundrechtsfragen wie es algorithmische Empfehlungssysteme, datenbasierte Werbung und Inhaltemoderation sind. Die Aufsicht über große Unternehmen ist für viele Behörden Teil der täglichen Arbeit, seien es Stromanbieter, Fernsehsender oder Telekommunikationsdienstleister. Doch selbst diese Schwergewichte verblassen gegenüber Tech-Konzernen wie Amazon, Meta und TikTok, die allesamt vom DSA erfasst sind. Diese Unternehmen können, selbst wenn sie von Skandalen geplagt sind, mit viel Geld Top-Programmierer:innen und -Lobbyist:innen locken.[28] Um hier auf Augenhöhe agieren zu können, muss nicht nur die Kommission, sondern müssen auch die DSCs zu attraktiven Arbeitgebern werden.

Deshalb sieht der DSA vor, dass nationale Stellen über ausreichende Ressourcen verfügen müssen, um ihre Aufgaben zu erfüllen. Ähnliche Formulierungen finden sich auch in anderen europäischen und deutschen Gesetzen, zum Beispiel für den Telekommunikationsbereich (für die BNetzA) oder im Datenschutz mit der Datenschutzgrundverordnung (DSGVO). In der Realität ergeben sich aber nicht nur deutliche Unterschiede zwischen den Behörden (siehe Schaubild 5), sondern trotz der gesetzlichen Pflichten auch Engpässe bei den Ressourcen. Insbesondere beim BfDI beziehungsweise den Datenschutzbehörden allgemein ist seit Jahren bekannt, dass sie unterfinanziert sind. Die zusätzlichen Aufgaben der DSGVO haben sich immer noch nicht in angemessener Ausstattung niedergeschlagen, was wiederum die Durchsetzung der Datenschutzregeln erschwert.[29] Auch für die Aufgabenerweiterung des Bundeskartellamts wird neues Personal benötigt. Die Medienanstalten finanzieren sich aus dem Rundfunkbeitrag. Sie beaufsichtigen laut Medienstaatsvertrag nun auch Onlineplattformen, doch ob es in diesem Zusammenhang eine Budgeterhöhung geben wird, ist offen.

Made with Flourish

Es sollte schon jetzt überlegt werden, welchen Finanzbedarf die neuen Aufgaben des DSC nach sich ziehen (siehe Abschnitt 3.1). Hierbei geht es sicher auch um Hard- und Software, doch viel wichtiger ist es, geeignete Fachleute anzustellen. Zum Beispiel braucht es Expertise zu Datenanalyse, Statistik und Informatik, wenn es um die Analyse großer Datenmengen geht. Um Risikoberichte von Plattformen verstehen zu können, sind Kenntnisse zu algorithmischen Entscheidungen ebenso gefragt wie solche zu Menschenrechten und Diskriminierung. Eine Diskussion um die „adäquate Ausstattung“ des DSC muss also über reine Zahlenspiele hinausgehen und muss sich der Frage widmen, wie qualifizierte Leute angeworben und gehalten werden können (siehe hierzu auch Abschnitt 4).

Vor diesem Hintergrund ist auch die Leitung des DSC zu bedenken. Höchste Priorität sollte fachliche Expertise in der Breite haben, doch auch an der Spitze muss eine versierte und engagierte Person stehen. Wie gut sich eine Behördenleitung in der Politik Gehör verschaffen kann und wie prominent sie in der Öffentlichkeit vertreten ist, hängt dabei von vielen Faktoren ab, die die Leitung nicht allein und auf die Schnelle ändern kann: etwa den rechtlichen Befugnissen der Behörde, den aktuellen Schwerpunkten der Bundesregierung und der Medien sowie der Außenwahrnehmung der regulierten Unternehmen. So könnten zum Beispiel die Leitungen des BKartA beziehungsweise des BfDI im medialen Fokus stehen, wenn sie öffentlichkeitswirksam Entscheidungen gegen große Tech-Konzerne verkünden, was bei anderen Stellen schlicht nicht möglich ist. Dennoch haben die jeweiligen Behördenleitungen viel in ihrer Hand, um energisch und konsequent zu regulieren, ihre Arbeit zu erklären und Fürsprecher:innen in der Politik zu überzeugen.

Befugnisse

Die Befugnisse, die der DSC haben soll, sind bereits für einige Stellen in Deutschland gesetzlich festgeschrieben. Hier dürfte es also ebenso wenig Reibung mit den Vorschriften des DSA geben wie bei den Transparenzpflichten. Zum Beispiel dürfen BNetzA, BKartA, BfDI und Medienanstalten bei Unternehmen Dokumente einsehen und von ihnen Auskünfte verlangen.[30] Sie dürfen in bestimmten Fällen auch Geschäftsräume durchsuchen.[31] Der DSC soll zudem Buß- und Zwangsgelder verhängen dürfen – auch das ist vielen deutschen Stellen möglich. Zum Beispiel hat die BNetzA gegen ein Call-Center wegen unerlaubter Telefonwerbung ein Bußgeld in Höhe von 260.000 Euro verhängt[32] und der BfDI gegen einen Telekommunikationsdienstleister eines in Höhe von 9,55 Millionen Euro[33], das ein Gericht allerdings auf 900.000 Euro senkte[34]. Die Medienanstalt Berlin-Brandenburg verhängte mehrere Zwangsgelder gegen den Sender RT.DE.[35] Auch „einstweilige Anordnungen“ werden in deutschen Behörden bereits eingesetzt. Das BKartA hatte beispielsweise angeordnet, dass Facebook Nutzer:innendaten nicht miteinander verknüpfen darf (diese Anordnung hatte vor Gericht allerdings keinen Bestand).[36]

Ähnlich wie bei den Transparenzberichten wäre eine Analyse und Bewertung sinnvoll, wie gut die gesetzlichen Befugnisse in der Praxis wirklich funktionieren. Hier sei nochmal auf das BfJ-Bußgeld gegen Facebook verwiesen, dessen Zahlung der Konzern jahrelang verschleppte (siehe unter Abschnitt 3.1). Eine umfassende Praxisanalyse könnte dabei helfen, zu erkennen, wie gut und schnell Bußgeldprozesse ablaufen, welche Fachkenntnisse für Durchsuchungen oder Befragungen nötig sind und ob Anordnungen umsetzbar sind.

4. Warum Deutschland einen starken DSC braucht

In Kürze
Die Bundesregierung könnte einen Minimal-DSC aufbauen, der als eine Art Sekretariat die meisten Aufgaben der Plattformaufsicht an andere Behörden weiterleitet. Alternativ könnte sie gezielt Kompetenzen beim DSC aufbauen und bündeln und ihn so zu einer Zentralstelle für Plattformaufsicht machen. Das ist die sinnvolle Lösung, da eine fachkundige und eigenständige Stelle den Anforderungen der europäischen Plattformaufsicht am ehesten gerecht wird.

Damit neue, EU-weite Regeln für Plattformen tatsächlich durchgesetzt werden und den Menschen helfen, ist eine starke, motivierte Aufsicht wesentlich. Die ungünstige Alternative, wenn es zwar fortschrittliche Regeln, aber eine löchrige europäische Aufsicht gibt, hat sich im Datenschutz gezeigt (siehe Abschnitt 3.2). Nationalstaatliches Aufsichtsversagen in Branchen wie der Finanz- oder Autoindustrie unterstreichen zudem, welche schwerwiegenden Folgen eine mangelhafte Aufsicht haben kann. Der DSC muss deshalb eine wirksame, unabhängige Aufsichtsstelle sein, die nicht nur juristische, sondern auch technische Fachkenntnisse aufweist, dabei insbesondere die Eigenheiten kleinerer Plattformen kennt und berücksichtigt, die ausreichende Befugnisse hat und für die es eine öffentliche Kontrolle gibt („checks and balances“). Viel stärker als bisher muss Plattformaufsicht datenbasiert arbeiten, noch mehr unterschiedliche Perspektiven einbinden, verschiedene Ansätze der Regulierung ausprobieren und sich als Teil eines Systems mit Fachleuten aus Zivilgesellschaft und Wissenschaft verstehen.[37]

Wie kann ein solcher DSC in Deutschland aufgebaut werden? Zwei Optionen erscheinen möglich, ein schwacher und ein starker DSC. Ein schwacher DSC würde nur die absolut nötigen, speziell für ihn vorgesehenen Aufsichts- und Koordinationsaufgaben übernehmen, während die allgemeinen Aufsichtsaufgaben weitgehend bei bestehenden Behörden verblieben. Dieser Minimal-DSC wäre also eine Art Weiterleitungsstelle oder Sekretariat. Für einen starken DSC würde die Bundesregierung verschiedene bestehende Kompetenzen im DSC bündeln, dort zudem einen erheblichen Kompetenzausbau vorantreiben und so den DSC zu einer echten Aufsichtsstelle formen.

Im Folgenden plädiere ich für einen starken DSC, wo Kompetenzen zur Plattformaufsicht zusammengeführt und aufgebaut werden. Die Bundesregierung sollte sich nicht auf einen schwachen DSC, der eher Sekretariat als Aufsicht ist, beschränken (siehe auch Schaubild 6). Langfristig und idealerweise wäre eine solche Aufsicht als neue, eigenständige Stelle sinnvoll, die sich von Anfang auf Plattformen spezialisieren kann: eine „Deutsche Digitale-Dienste-Agentur“ (3DA). Kurzfristig ist es allerdings realistischer, dass politische Entscheidungsträger:innen eine bestehende Behörde als DSC auswählen. Daher gehe ich auch darauf ein, inwiefern dort ein starker DSC aufgebaut werden kann. In beiden Fällen sind noch viele inhaltliche, rechtliche und politische Fragen offen, die hier aufgeworfen, aber noch nicht endgültig beantwortet werden können. Detaillierte Recherchen, Analysen und Vorschläge hierzu sollen Gegenstand zukünftiger SNV-Arbeit sein.

Made with Flourish

Bitte im Schaubild auf die Icons klicken oder tappen, um weitere Informationen anzuzeigen.

4.1 Warum ein starker DSC wichtig ist und wie er aussehen könnte

Es gibt zahlreiche Gründe dafür, einen starken DSC aufzubauen, der das Onlineumfeld selbst aktiv mitgestalten kann. Werden Kompetenzen der Plattformaufsicht im DSC gebündelt und neue inhaltliche Fachkenntnisse gezielt aufgebaut, würde so Expertise zu Onlineplattformen an einem Ort gesammelt. Mit starker inhaltlicher Expertise und den passenden Kompetenzen wäre der DSC am besten in der Lage, selbst fachliche Entscheidungen zu treffen und zudem die Koordination zwischen vielen unterschiedlichen Behörden zu erleichtern. Auch für europäische Behörden bestünde eine Ansprechstelle, die nicht jede Anfrage an andere weiterleiten muss. Eine eigenständige, starke Stelle wäre darüber hinaus die beste Möglichkeit, die Kommission bei der Durchsetzung des DSA auf europäischer Ebene zu unterstützen beziehungsweise, wenn nötig, sie anzutreiben oder ein Gegengewicht zu ihr zu bilden. Einige Regeln des DSA, etwa zum Datenzugang oder den Berichtspflichten, bieten gute Anknüpfungspunkte, um auch mit außereuropäischen Partnern gemeinsame Standards zu setzen.[38] Hier könnte sich ein starker DSC ebenfalls besser einbringen als eine Stelle ohne eigene Fachkenntnisse und Praxiserfahrungen. Ganz grundsätzlich würden der gezielte Ausbau und die Bündelung von Kompetenzen anerkennen, dass Plattformen eine eigens auf sie zugeschnittene Aufsicht benötigen – wie es für Unternehmen wie TV- und Radiosender, Netzbetreiber und Banken seit Jahrzehnten der Fall ist. Aus den Stärken und Schwächen dieser Aufsichtssysteme sollten für die Entwicklung der deutschen Plattformaufsicht Lehren gezogen werden.

Warum ein starker DSC vorteilhaft ist und wie er gestaltet sein könnte, wird auch bei einem Blick auf die wesentlichen Anforderungen deutlich:

  • Unabhängigkeit: Der DSC muss möglichst unabhängig von politischer und wirtschaftlicher Einflussnahme sein. In Deutschland bieten Bundesbehörden ohne Fachaufsicht oder staatsferne Medienanstalten dafür Beispiele. Die Entwicklung eines starken DSC in Anlehnung an solche Vorbilder würde es ermöglichen, zusätzliche Absicherungen einzubauen, etwa in Form eigener Transparenz- und Lobbyregeln. Ein pluralistisches, spezialisiertes und unabhängiges Beratungsgremium, das nicht nur inhaltlich Expertise aufweist, sondern auch mögliche Einflussversuche erkennen und öffentlich machen kann, könnte den DSC unterstützen. Es könnte eventuell auch in den Vorschlag eingebunden sein, wer die Führung des DSC übernehmen soll. Die Leitung könnte dann vom Bundestag gewählt werden. Diese Punkte würden auch dazu beitragen, eine starre und übermächtige Superbehörde zu vermeiden. Das ist gerade deshalb wichtig, weil der DSA Grundrechtsfragen wie Privatsphäre oder Meinungsfreiheit berührt. Die endgültige Beantwortung von Fragen hierzu muss weiterhin bei Gerichten verbleiben und darf nicht bei einem nicht-gewählten Regulator liegen.
  • Ressourcen und Strukturen: Laut DSA braucht der DSC ausreichend Ressourcen für seine Koordinierungs- und Aufsichtsfunktionen. Dafür bietet sich eine Stelle mit einer eigenen Identität an, die nicht nur Aufgaben an andere Behörden weiterleitet und die Plattformaufsicht nicht als Nebentätigkeit sieht. Der DSC sollte selbst Fachkenntnisse aufbauen und in der Lage sein, zusätzlich gezielt auf externe Expertise zurückgreifen zu können. Leiten sollte den DSC eine Führungspersönlichkeit mit den passenden fachlichen Kenntnissen, etwa zu Grundrechtsschutz, Plattformen oder Datenökonomie, die sich national und europäisch vernetzen und dem DSC durch Öffentlichkeitsarbeit und Wissenschaftskommunikation ein Profil geben kann. Der DSC muss ein attraktiver Arbeitgeber für Menschen mit diesen diversen Hintergründen sein, gerade auch weil er mit Tech-Unternehmen um diese Talente konkurriert. Dafür muss eine gewisse Offenheit und Flexibilität in der Behördenstruktur herrschen, zum Beispiel zu Bewerbungsverfahren und Löhnen, die in vorhandenen Stellen nicht immer gegeben ist.[39]
  • Fachliche Expertise und Gestaltungswille: Der DSA nimmt viel stärker als bisherige Regeln die Abläufe der Online-Inhaltemoderation ins Visier. Zudem setzt er viel stärker als bisher darauf, Daten der regulierten Plattformen zu nutzen, um die Einhaltung von EU-Regeln zu prüfen und Forschung zu ermöglichen. Für die Arbeit an dieser Schnittstelle von Datenanalyse, Überwachung von Unternehmensprozessen, Inhaltemoderation und Grundrechtsschutz ist eine eigene, spezialisierte Expertise nötig. Der DSC sollte darauf ausgelegt sein, diese Expertise auf- und auszubauen. Zum Beispiel könnte ein Technologievorstand („Chief Technology Officer“, CTO) und eine Abteilung für Datenwissenschaften eingerichtet werden. Dafür sind Fachleute aus unterschiedlichen Disziplinen wie Computer- und Datenwissenschaften, Soziologie, Psychologie, Design und Politik-, Wirtschafts- und Rechtswissenschaften und mit unterschiedlichen Erfahrungen nötig. Eigene Datenanalysen sollten Ausdruck des Selbstverständnisses sein, das Onlineumfeld aktiv mitzugestalten. Dazu gehören aber auch andere Aktivitäten, zum Beispiel, dass der DSC als Forum für Unternehmen, Zivilgesellschaft und Wissenschaft auftritt oder Nutzende über ihre Rechte aufklärt.

Kurzum: Plattformen benötigen eigene Ansätze der Aufsicht und ein starker DSC würde diese bieten. Dass eigene Ansätze der Plattformaufsicht nötig sind, ist mittlerweile in einigen Stellen in Deutschland gelebter Arbeitsalltag, etwa bei Medienanstalten, im BfJ und der BNetzA. Doch die Expertise, die vielerorts aufgebaut wird, ist eingebettet in Strukturen, die nicht originär für Plattformen geschaffen wurden. Wie Meinungsvielfalt im Onlineumfeld gesichert werden kann und soll, unterscheidet sich davon, wie sie im Radio und Fernsehen gesichert wird: Die Art und Weise, wie sich Inhalte über algorithmische Empfehlungssysteme verbreiten, und das Ausmaß der digitalen Kommunikationsräume erfordern eigene Ansätze. Die Regulierung großer Telekommunikationsunternehmen unterscheidet sich von jener über Anbieter von Suchmaschinen, sozialen Netzwerken und Videoportalen, eben weil es auch um Meinungsfreiheit und andere Grundrechte geht. Wer dies anerkennt, versteht, dass es sich lohnt, in einer neuen, eigenständigen Stelle Kompetenzen hierfür zu aufzubauen und zusammenzuführen. Zumal eine spezialisierte Plattformaufsicht auch bei der Ressourcenverteilung aktuell nur eine Nebenrolle spielt.

Der deutsche DSC sollte die Aufsichtsaufgaben für Plattformen übernehmen, die schon jetzt in anderen Behörden liegen. Konkret heißt das, dass insbesondere die Aufgaben des BfJ im DSC aufgehen sollten, falls Regeln des NetzDG nach dem DSA bestehen bleiben. Eine deutlich umfangreichere (und rechtlich deutlich schwierigere; siehe „Offene Fragen“ unten) Kompetenzbündelung wäre langfristig sinnvoll, wenn zum Beispiel Teile des digitalen Verbraucher:innenschutzes bei der BNetzA und eventuell beim BSI, des Jugendmedienschutzes bei der BzKJ und der Intermediärsaufsicht bei den Medienanstalten zusammengeführt würden. Das ginge am besten in einer neuen, eigenständigen Agentur, die die oben genannten Punkte Unabhängigkeit, Ressourcen und Expertise von Anfang an ins Zentrum ihrer Arbeit stellen kann. Eine solche Agentur würde für Klarheit und eine schlanke und spezialisierte Plattformaufsicht sorgen, die sich deutlich von anderen Regulierungsfeldern abgrenzt. Außerdem könnten möglicherweise Konflikte zwischen bestehenden Behörden vermieden werden, wenn Kompetenzen nicht zwischen ihnen verschoben, sondern einer neuen Stelle übergeben werden.

Offene Fragen zur Zusammenarbeit von Bund und Ländern

Andere Länder bündeln Kompetenzen der Plattformaufsicht bereits in einer Behörde. Zum Beispiel hat Frankreich Anfang 2022 die beiden Behörden für audiovisuelle und digitale Kommunikation zur neuen ARCOM zusammengelegt („Autorité de régulation de la communication audiovisuelle et numérique“). Längere Erfahrung hat Großbritannien, da die dortige Medienaufsicht Ofcom („Office of Communications“) eine Art großes Dach für unterschiedliche Fachbereiche wie Telekommunikations-, Radio- und Internetregulierung ist. Diese Struktur ist als „konvergierter Regulator“ bekannt.[40] Aus diesen Erfahrungen können deutsche Gesetzgeber:innen Lehren ziehen, was zu einer starken, dynamischen Aufsicht beiträgt und wo Schwächen liegen. Allerdings lassen sich Aufsichtsstrukturen anderer Länder nicht eins zu eins auf die deutsche Situation übertragen. Selbst wenn es gewünscht wäre, eine Behörde wie die Ofcom in Deutschland aufzubauen, müssten dafür zunächst schwierige rechtliche Fragen gelöst werden.

Eine der größten offenen Fragen ist, wie die föderalen Strukturen in Deutschland bei der Durchsetzung des DSA berücksichtigt werden können. Das Gesetz ist mit der Sicherung des EU-Binnenmarkts begründet, was die Zuständigkeit klar beim Bund verortet. Doch betreffen die Regeln im DSA auch die Aufsicht über Inhaltemoderation. Dies wiederum hängt mit der Sicherung von Medien- und Meinungspluralismus zusammen, und für diesen Ausschnitt des DSA melden die Bundesländer ihre Kompetenzen an.

Der Bundesrat hatte bereits in seiner Stellungnahme zum ersten Entwurf des DSA betont, dass die „Aufsichtsstrukturen im Medienbereich“[41] beachtet werden müssen. Damit sind die Landesmedienanstalten gemeint. Wenn diese unter einem Dach gemeinsam mit Bundesbehörden regulieren sollen, kommen rechtliche Fragen zur „Mischverwaltung“ auf. Mischverwaltung bedeutet hier, dass Bund und Länder Verwaltungsaufgaben gemeinsam wahrnehmen. Dafür jedoch setzt das Grundgesetz enge Grenzen: Grundsätzlich sollten die Zuständigkeiten von Bund und Ländern getrennt voneinander sein. Das erschwert eine gemeinsame Medienaufsicht von Bund und Ländern. Aber es gibt selbst innerhalb dieser Grenzen Möglichkeiten für eine Zusammenarbeit.[42] Zum Beispiel wäre es in bestimmten Fällen denkbar, dass eine Behörde, etwa die BNetzA, vor einer Regulierungsentscheidung die Zustimmung einer anderen Behörde, etwa einer Landesmedienanstalt, einholt (Einvernehmen).[43] Eine Plattformaufsicht, die Expertise aus Bund und Ländern zusammenbringt, scheint also möglich. Politische Entscheidungsträger:innen sollten hierzu mit weiteren Fachleuten aus Recht und Verwaltung rechtliche Klarheit schaffen, damit Bund und Länder bei der Plattformaufsicht zusammenarbeiten können.

Zumindest kurzfristig ist eine eigenständige Agentur allerdings unrealistisch, da der DSA knappe Fristen setzt und wohl weder die finanziellen Mittel noch der politische Wille für einen schnellen Aufbau einer neuen Behörde vorhanden sind. Daher wird es eher so sein, dass bestehende Strukturen ausgebaut werden. Ein Vorteil dabei könnte sein, dass teils auf Personal, Expertise und Prozesse der bestehenden Behörde aufgesattelt werden könnte. Fragen zum Standort des DSC könnten wahrscheinlich vermieden werden, wenn genügend Räumlichkeiten bei der Behörde zur Verfügung stehen.[44]

Gerade wenn eine vorhandene Behörde DSC wird, ist aber ein deutlicher Ausbau der vorhandenen Expertise und auch eine Bündelung von Kompetenzen anderer Stellen nötig und möglich. Eine „Deutsche Digitale-Dienste Agentur“ könnte dann in kleinerem Umfang in einer bestehenden Behörde etabliert werden. Es ist abzusehen, dass das Bundesministerium für Digitales und Verkehr die „eigene“ Behörde BNetzA als DSC in Spiel bringen wird und die Bundesländer weiterhin die Rolle der Medienanstalten bei der Meinungsvielfaltssicherung betonen werden. Bei der BNetzA könnten Kompetenzen in einer eigenen Abteilung „Onlineplattformen“ gebündelt werden, für die die bisherige Unterabteilung „Internet, Digitalisierungsfragen“ weiter ausgebaut werden könnte. Sie müsste unabhängig sein, das heißt frei von einer Fachaufsicht des Ministeriums. Je nach Aufgabenzuschnitt des DSC könnte es sonst auch eine eigene Beschlusskammer für Regulierungsentscheidungen geben, die sich gegebenenfalls mit anderen Stellen abstimmt (siehe „Offene Fragen“ oben). Bei den Landesmedienanstalten ist der interne Koordinationsaufwand zwischen 14 Anstalten schon jetzt hoch, aber zumindest gibt es mit der Direktorenkonferenz bereits ein Gremium, das alle Medienanstalten zusammenbringt und einen Europabeauftragten hat. In jedem Fall sollten die oben genannten Anforderungen an einen starken DSC auch berücksichtigt werden, wenn dieser in einer vorhandenen Behörde verortet wird: Seine Unabhängigkeit muss gewährleistet sein, seine fachliche Expertise weiter entwickelt werden und das Selbstverständnis als bedeutende Plattformaufsicht anerkannt werden.

4.2 Warum jetzt der richtige Zeitpunkt für einen starken DSC ist

Deutschland hat bereits viele Reformen zum Beispiel im Wettbewerbsrecht, bei der Medienregulierung, zu Telekommunikation oder auch in Form des NetzDG vorgenommen (siehe Abschnitt 3). Behörden wie die BNetzA haben einen deutlichen Kompetenzzuwachs erfahren, um auch digitale Dienste in ihrer Aufsicht abzudecken. Das zeigt, dass es ein Bewusstsein dafür gibt, auf neue Unternehmen, Geschäftsmodelle und Herausforderungen zu reagieren, die bei der Entstehung etwa von Rundfunk- oder Telekommunikationsregulierung noch unbekannt waren. Diese Reformen fanden in jeweils eigenen Politikfeldern statt. Das hat dazu geführt, dass Kompetenzen für die Plattformaufsicht über viele Stellen und politische Ebenen verstreut sind. Es wurde deshalb schon lange vor dem DSA diskutiert, Kompetenzen auszubauen, zu bündeln und zu zentralisieren, um die Aufsicht für Plattformen – oder genereller für die Datenwirtschaft – zu verbessern.

Zwar sind die bisherigen Vorschläge nicht direkt auf den DSC übertragbar, weil sie sich nicht ausdrücklich mit Themen aus dem DSA befassen. Sie zeigen allerdings, dass seit langem der Bedarf bekannt ist, die Aufsicht über Plattformen und die Datenwirtschaft neu zu ordnen. Das sollte beim Aufbau des DSC berücksichtigt werden, da er idealerweise dabei helfen könnte, den Reformknoten zu lösen – oder zumindest nicht fester zu zurren. Ein keinesfalls umfänglicher Blick auf die Debatten folgt hier:

  • Eine Zentralisierung der Datenschutzaufsicht wird immer wieder kontrovers diskutiert (zur Struktur siehe Abschnitt 3.1).[45] Auch wenn eine Zentralisierung noch unrealistisch scheint, hat die Bundesregierung zumindest angekündigt, die Datenschutzkonferenz zu „institutionalisieren“[46], was als Stärkung der Bund-Länder-Koordination verstanden werden kann.
  • • Seit langem kursiert die Idee einer „Digitalagentur“ in Deutschland. Diese nicht vollständig entwickelte Idee sollte zwar nicht für den DSA wiederbelebt werden und ist unpassend, weil die Agentur hauptsächlich Aufgaben zu digitalen Infrastrukturprojekten und -fragen übernehmen sollte. Aber die Diskussion dazu hat die Notwendigkeit gezeigt, Datenschutz- und Wettbewerbsrecht stärker zu verzahnen. Das war der ursprüngliche Ansatz, der in einem Bericht für das Bundeswirtschaftsministerium, der 2017 erschien, vorgestellt wurde und „Kompetenzlücken“[47] etwa bei der Marktaufsicht im digitalen Bereich zeigte. In einer weiteren Arbeit für das Bundeswirtschaftsministerium wurden Schritte zur Einrichtung einer solchen Agentur analysiert.[48] Eine Studie der Friedrich-Ebert-Stiftung ergänzte die Idee und Aufgaben einer Digitalagentur zum Beispiel um Fragen der „Algorithmentransparenz“, was dem DSA näher kommt.[49] Die Digitalagentur tauchte im Koalitionsvertrag von 2018 auf[50], aber ernsthaft verfolgt wurde ein Aufbau nicht. Fortschritte bei der Weiterentwicklung des Wettbewerbsrechts gab es stattdessen durch die Novelle des Gesetzes gegen Wettbewerbsbeschränkungen (GWB) und auf EU-Ebene durch das Digitale-Märkte-Gesetz („Digital Markets Act“, DMA).
  • Die Datenethikkommission erkannte weitere Lücken in der Aufsicht insbesondere für algorithmische Systeme, die auch bei Suchmaschinen und sozialen Netzwerken zum Einsatz kommen. Hier seien sowohl neue Rechtsgrundlagen als auch neue Aufsichtsstrukturen nötig, etwa durch erweiterte und/oder neue Behörden und ein „Kompetenzzentrum Algorithmische Systeme“.[51] Auch hierzu gab es seit dem Gutachten der Datenethikkommission wichtige Entwicklungen, nicht zuletzt durch den DSA, der Transparenzregeln für Empfehlungssysteme vorsieht. Der Medienstaatsvertrag geht ebenfalls auf algorithmische Systeme ein.
  • • Zur deutschen Medienaufsicht gibt es seit Jahren Vorschläge, die auf teils deutlicher Kritik am zersplitterten Aufsichtssystem basieren (zur Struktur siehe Abschnitt 3.1) und dementsprechend eine Neuorganisation auf Bundesebene fordern. Zwar wurden wichtige Reformen wie der Medienstaatsvertrag und die Überarbeitung des Jugendmedienschutzes erreicht, aber beide Regelwerke gingen die jeweiligen grundlegenden, strukturellen Fragen kaum an.[52] Das Institut für Medien- und Kommunikationspolitik bemängelt seit langem fehlenden Willen, sich vom „dogmatischen“ Rundfunkbegriff zu lösen und eine neu aufgestellte, ganzheitliche Aufsichtsstelle zu schaffen.[53] Doch die Kritik kommt nicht nur aus Wissenschaft und Zivilgesellschaft, sondern auch aus den Reihen der Medienpolitik und -regulierung selbst.[54] Um nur ein Beispiel zu nennen: Der jahrzehntelange Leiter der Medienanstalt Berlin-Brandenburg, Hans Hege, erläuterte öffentlich, warum für die Aufsicht von Google oder Facebook neue Ansätze der Regulierung nötig seien. Das bisherige Modell sei veraltet und „nutzlos“, wenn es weiter „mit einem Beschlussgremium aus ehrenamtlich Tätigen und einer monokratischen Verwaltungsspitze“ arbeite.[55] An diesem Modell hat der Medienstaatsvertrag nichts verändert. Ob die im Koalitionsvertrag vorgesehene Bund-Länder-Arbeitsgruppe, die „Gesetze mit medienrechtlichen und politischen Bezügen überarbeiten“[56] soll, diese Strukturen umgestaltet, ist offen.

Während Deutschlands Plattformaufsicht über viele Politikfelder verteilt ist, betrachtet der DSA Medienaufsicht, Verbraucher:innenschutz, Produktsicherheit, Wettbewerb und Datenschutz gemeinsam. Es werden Plattformen beziehungsweise Themen zusammen behandelt, die in Deutschland auf unterschiedlichen politischen Ebenen und an unterschiedlichen Stellen beaufsichtigt werden. Diesen Gegensatz aufzulösen, ist eine der wichtigsten Aufgaben der Bundesregierung bei der Gestaltung des DSC. Doch es ist nicht nur der DSA, der neue Regeln für Plattformen und die Datenwirtschaft vorsieht. Eine ganze Reihe anderer geplanter oder bereits umgesetzter Gesetze berührt die Plattformaufsicht. Es ist sinnvoll, diese EU-Regelwerke gemeinsam zu bedenken, um Doppelstrukturen zu vermeiden. Das ist ein weiterer Grund, warum gerade jetzt ein so günstiger Zeitpunkt ist, um die Kompetenzverteilung der deutschen Plattformaufsicht zu hinterfragen.

Neben dem DSA gibt es mindestens ein halbes Dutzend weitere generelle oder sektorspezifische Gesetze mit Anknüpfungspunkten zu Tech-Regulierung (siehe Schaubild 7). Ohne Anspruch auf eine vollständige und kritische Auseinandersetzung zu erheben, sind allein auf EU-Ebene folgende Gesetzesvorhaben erst kürzlich abgeschlossen worden oder stehen vor dem Abschluss:

Made with Flourish

Bitte im Schaubild auf die Stichworte und Icons klicken oder tappen, um weitere Informationen anzuzeigen.

Diese nur grobe Aufstellung zeigt, wo überall Kenntnisse zum Umgang mit Online-Plattformen, Daten, algorithmischen Systemen und datenbasierten Geschäftsmodellen wichtig sein werden. Teilweise sehen die Gesetzentwürfe neue Aufsichtsstrukturen vor, teilweise wird ausdrücklich auf den DSA beziehungsweise den DSC verwiesen. Letzteres ist zum Beispiel beim Gesetzentwurf zu politischer Onlinewerbung der Fall. Eine starker DSC könnte also auch hierzu gezielt Expertise aufbauen. Anknüpfungspunkte bieten sich darüber hinaus beim geplanten „Gesetz zu künstlicher Intelligenz“ oder bei der P2B-Verordnung, für die es bislang gar keine behördliche Aufsicht gibt.

Es gibt also Erfahrungen mit schwacher Aufsicht von EU-Regeln. Es gibt seit Jahren Reformstau in Deutschland zur Aufsicht im Digitalbereich. Es gibt auf europäischer Ebene mehrere Vorhaben für Regulierung in der Datenwirtschaft, die eine passende Aufsicht benötigen. Es gibt in Deutschland keine Stelle, die ohne weiteres alle Aufgaben der Plattformaufsicht übernehmen kann. Jetzt liegt mit dem DSA ein Gesetz vor, das mit dem DSC den Anstoß geben kann, all diese Entwicklungen gemeinsam zu betrachten und eine starke, neue Stelle zu schaffen, die gezielt Kompetenzen bündelt und entwickelt. Den DSC nur als Weiterleitungsstelle zu betrachten, würde all diese Entwicklungen außer Acht lassen.

4.3 Warum ein Minimal-DSC nicht ausreicht

Der DSC könnte so aufgestellt werden, dass er nur die ihm direkt zugewiesenen Aufgaben wahrnimmt und ansonsten koordinierend tätig ist. Allgemeine Durchsetzungs- und Aufsichtsaufgaben würden also in den meisten Fällen an andere Behörden übergeben. Das klingt zunächst sinnvoll, weil bestehende Behördenstrukturen genutzt und vielfältige Regulierungsansätze angewandt werden können. Gerade weil auf vorhandene Strukturen zurückgegriffen werden kann, mag es weniger aufwändig und finanziell günstiger scheinen, den DSC als eine Art Sekretariat oder Weiterleitungsstelle einzurichten. Der DSC bräuchte entsprechend weniger Personal und es müssten keine umfangreichen Organisationsstrukturen aufgebaut werden, sodass er möglicherweise schneller arbeitsfähig wäre.

Dass ein Minimal-DSC günstig zu haben ist, ist allerdings ein Trugschluss. Zum einen müsste selbst ein schwacher DSC in der Lage sein, Forschende, die Datenzugänge beantragen, zu überprüfen, Daten zu nutzen und als Beschwerdestelle zu fungieren. Dafür sind Ressourcen nötig. Um die anderen Durchsetzungsaufgaben des DSA zu erfüllen, müsste darüber hinaus trotzdem in die deutsche Plattformaufsicht investiert werden, nur eben bei bestehenden Behörden anstatt bei einer eigenen Stelle. Das Argument, ein DSC als Sekretariat hielte die Verwaltung schlanker, wird damit entkräftet. Vielmehr würden Ressourcen an vielen verschiedenen Stellen auf allen politischen Ebenen gebraucht, was die Gefahr von kostspieligen Doppelstrukturen mit sich bringt. Es besteht zudem das Risiko, dass es kaum Anreize gibt, beim DSC fachliche Expertise für die zugewiesenen Aufgaben sowie generell zu Plattformaufsicht aufzubauen. Der DSC wäre somit keine Stelle, die das Onlineumfeld mitgestaltet, sondern müsste sich dafür auf andere verlassen. Ein fachlich schwacher und nur für ein Minimum der vorgesehenen Aufgaben ausgerüsteter DSC riskiert zudem, bei den Koordinationspflichten von etablierten, großen Behördenapparaten in den Schatten gestellt zu werden. Das betrifft auch seine Rolle auf europäischer Ebene, wo er gegenüber der Kommission und im Gremium für digitale Dienste vermutlich nicht als starke Kraft auftreten könnte.

Ein Minimal-DSC würde am Status Quo der deutschen Behördenlandschaft weniger ändern als Kompetenzen in einer eigenen Stelle aufzubauen und zu bündeln. Mehrere Behörden müssten neue Aufgaben aus dem DSA übernehmen, aber an der Struktur der deutschen Plattformaufsicht würde nicht gerüttelt. Für manche mag das ein Vorteil sein, weil keine Behörde das Gefühl hat, entmachtet zu werden. Allerdings werden selbst ohne den Aufbau einer neuen Stelle einige Aufsichtsaufgaben mit dem DSA zur Kommission wandern. Es ist also nicht so, dass ein Minimal-DSC für einen Machterhalt bei bestehenden Behörden sorgt. Vielleicht könnten mit so einer Gestaltung Auseinandersetzungen darüber vermieden werden, wer welche Kompetenzen an eine neue Stelle abgibt. Doch auch das ist zweifelhaft, denn es kann trotzdem zu Interessenkonflikten zwischen den verschiedenen Behörden kommen und diese Konflikte bergen gerade mit einem schwachen DSC die Gefahr von Blockaden und Grabenkämpfen. Stillstand bei der Durchsetzung des DSA könnte die Folge sein. Zuletzt und ganz grundsätzlich würde ein Festhalten am Status Quo, selbst wenn es nicht zu größeren Konflikten kommt, die bereits seit Jahren nötigen Reformen zur Digitalaufsicht weiter verschleppen und verkennen, dass eigene Aufsichtsstrukturen für Plattformen sinnvoll sind.

5. Ausblick

Wie der deutsche DSC gestaltet sein wird, ist sowohl eine technische als auch eine politische Frage. Deutsche Gesetzgeber:innen stehen somit vor einer richtungsweisenden Entscheidung. Sie haben die Chance, mit dem Aufbau eines starken DSC für ein „transparentes und sicheres Online-Umfeld“ für Millionen Menschen zu sorgen. Noch nie zuvor gab es einen so umfangreichen, spezialisierten EU-weiten Rechtsrahmen für Plattformen, Onlinemarktplätze und andere digitale Dienste. Die nationalen Behörden in den EU-Mitgliedsländern tragen maßgeblich dazu bei, die neuen Regeln im Zusammenspiel mit der Kommission umzusetzen. Um zu einer starken europäischen Plattformaufsicht bestmöglich beizutragen, sollte Deutschland eine gut ausgestattete, unabhängige Stelle als DSC schaffen, die vorhandene Kompetenzen bündelt, neue aufbaut und sich so auf eine ganzheitliche Plattformaufsicht konzentrieren kann. Davon, einen Mini-DSC hauptsächlich als Weiterleitungsstelle einzurichten, ist klar abzuraten. Diese Scheinlösung würde verkennen, welche wichtigen Aufsichtsaufgaben der DSC übernimmt, und die zersplitterte Plattformaufsicht in Deutschland verfestigen.

Weil der DSC von so zentraler Bedeutung ist und die Umsetzung des DSA fast alle Menschen und Unternehmen in Deutschland betreffen wird, sollten diese Fragen öffentlich diskutiert werden. Eine Auseinandersetzung im Parlament, in den Medien und in der Zivilgesellschaft kann dazu beitragen, Positivbeispiele und Ideen für eine starke Plattformaufsicht in Deutschland zu sammeln.

Danksagungen

Die Recherche zu dieser Analyse profitierte maßgeblich von Expert:inneninterviews. Die vorgenommene schriftliche und/oder mündliche Befragung von Behördenvertreter:innen sowie Gespräche mit Fachleuten aus der Wissenschaft, Zivilgesellschaft und Wirtschaft sollte bestmöglich sicherstellen, dass sowohl Selbst- als auch Fremdeinschätzungen zur Plattformaufsicht in Deutschland und insbesondere der Behördenlandschaft in die Analyse einfließen. Dies wäre ohne die Offenheit der beteiligten Fachleute nicht möglich gewesen. Für diese Gesprächsbereitschaft bedanke ich mich sehr herzlich. Für hilfreiche Kritik und Kommentare zu vorherigen Entwürfen danke ich neben dem SNV-Team Behördenvertreter:innen sowie Aline Blankertz, Christina Dinar, Lisa Dittmer, Dr. Stephan Dreyer, Torben Klausa, Martin Madej und Dr. Abel Reiberg. Dem SNV-Team gebührt darüber hinaus für die wie immer hervorragende Unterstützung während des gesamten Recherche- und Veröffentlichungsprozesses ein großer Dank.

Die Ansichten im Text spiegeln nicht notwendigerweise die der Fachleute, mit denen ich im Austausch stand, oder ihrer Arbeitgeber wider und alle verbleibenden Fehler sind meine eigenen.

Das Papier ist Teil eines Projekts zur deutschen und europäischen Plattformaufsicht, das von der Stiftung Mercator und Reset gefördert wird.

Creative Commons License
Dieser Inhalt unterliegt einer Creative Commons Lizenz (CC BY-SA 4.0). Die Vervielfältigung, Verbreitung und Veröffentlichung, Veränderung oder Übersetzung der mit der „CC BY-SA 4.0“-Lizenz gekennzeichneten Inhalte der Stiftung Neue Verantwortung sowie die Erstellung von daraus abgeleiteten Produkten sind unter den Bedingungen „Namensnennung“ und „ShareAlike“ gestattet. Detaillierte Informationen zu den Lizenzbedingungen finden Sie bei Creative Commons.

Quellen und Fußnoten

[1] Vgl. zur Verzahnung verschiedener Politikfelder mit Blick auf Plattformen Australian Competition and Consumer Commission, „Digital Platforms Inquiry - Final Report“ (Canberra: Australian Competition and Consumer Commission, 26. Juli 2019), 5; Torsten J. Gerpott, „Wer reguliert zukünftig Betreiber großer Online-Plattformen? Aufsichtssysteme in den Vorschlägen der Europäischen Kommission für Gesetze über digitale Märkte und über digitale Dienste“, Wirtschaft und Wettbewerb 71, Nr. 9 (1. Juli 2021): 486.

 

[2] Vielen Dank an Anna Würth und Melanie Wündsch für diesen Hinweis.

 

[3] Vielen Dank an Alexander Ritzmann für diesen Hinweis. Zu möglichen Risiken bei der Auditierung von Algorithmen siehe Mona Sloane, „The Algorithmic Auditing Trap“, OneZero, 17. März 2021; Julian Jaursch, „Why The EU Needs To Get Audits For Tech Companies Right“, Techdirt, 19. August 2021; Hans-Jakob Schindler, „Proposed EU Digital Services Act (DSA): Provisions Concerning Auditing and Recommendations for Strengthening This Mechanism“ (Berlin: Counter Extremism Project, 7. Juni 2021); allgemeiner zu Künstlicher Intelligenz siehe Leonie Beining, „Vertrauenswürdige KI durch Standards? Herausforderungen bei der Standardisierung und Zertifizierung von Künstlicher Intelligenz“ (Berlin: Stiftung Neue Verantwortung, Oktober 2020).

 

 

[5] Julia Carrie Wong, „How Facebook Let Fake Engagement Distort Global Politics: A Whistleblower’s Account“, The Guardian, 12. April 2021.

 

[6] Simon Hurtz u. a., „Facebook Files: Die Erkenntnisse aus den internen Dokumenten“, Süddeutsche Zeitung, 25. Oktober 2021.

 

[7] Vgl. Tommaso Valletti in Adam Satariano, „E.U. Takes Aim at Social Media’s Harms With Landmark New Law“, The New York Times, 22. April 2022; Alex C. Engler, „Regieren braucht Datenwissenschaft“, Tagesspiegel Background Digitalisierung & KI, 24. März 2022; Giorgio Monti und Alexandre de Streel, „Improving EU Institutional Design to Better Supervise Digital Platforms“ (Brussels: Centre on Regulation in Europe (CERRE), 17. Januar 2022).

 

[8] Für Hinweise zu vorherigen Textentwürfen, insbesondere an dieser Stelle zum NetzDG, danke ich Dr. Daniel Holznagel, Dr. Matthias C. Kettemann und Marie-Therese Sekwenz.

 

[9] Katrin Gessinger, „Weitere Vorgaben im Kampf gegen den digitalen Hass: Zur Novellierung des NetzDG im Jahr 2021“, Kriminalpolitische Zeitschrift, Nr. 6 (2021): 364–71.

 

[10] Martin Eifert u. a., „Evaluation des NetzDG im Auftrag des BMJV“ (Berlin: Humboldt-Universität zu Berlin, 2020), 143–44, 153.

 

[11] Tomas Rudl, „Blackbox: Wie Facebook das NetzDG aushöhlt“, netzpolitik.org, 26. Februar 2021; Torben Klausa, „Hass im Netz: Facebook zahlte fünf Millionen Euro Strafe“, FinanzNachrichten.de, 3. September 2021.

 

[12] Siehe zum Beispiel Medienanstalt Hamburg / Schleswig-Holstein, „Kooperation Google mit Bundesministerium für Gesundheit: MA HSH leitet medienrechtliches Verfahren ein“, 17. Dezember 2020.

 

[13] Die Medienanstalten, „In den Blick genommen: Journalistische Sorgfaltspflichten im Netz“, 12. Februar 2021.

 

[14] Für Hinweise hierzu danke ich Christina Dinar, siehe auch Christina Dinar und Lena Hinrichs, „Superwahljahr 2021: Mapping von kleinen, mittleren und Nischenplattformen online“, Hans-Bredow-Institut, 4. August 2021.

 

[15] Vgl. evelyn douek, „Content Moderation as Administration“, Harvard Law Review 136 (10. Januar 2022): 82; für weitere Auseinandersetzungen mit den Besonderheiten von Plattformaufsicht und Inhaltemoderation siehe zum Beispiel Jennifer Cobbe und Jatinder Singh, „Regulating Recommending: Motivations, Considerations, and Principles“, European Journal of Law and Technology 10, Nr. 3 (2019); Amélie Heldt und Stephan Dreyer, „Competent Third Parties and Content Moderation on Platforms: Potentials of Independent Decision-Making Bodies From A Governance Structure Perspective“, Journal of Information Policy 11 (2021): 266–300; Sarah T. Roberts, Behind the Screen: Content Moderation in the Shadows of Social Media (Yale University Press, 2019); Robyn Caplan, „Content or Context Moderation?“ (New York, NY: Data & Society, 14. November 2018); Christina Dinar, „The State of Content Moderation for the LGBTIQA+ Community and the Role of the EU Digital Services Act“ (Brussels: Heinrich-Böll-Stiftung, Juni 2021); Natali Helberger, Katharina Kleinen-von Königslöw, und Rob van der Noll, „Regulating the new information intermediaries as gatekeepers of information diversity“, info 17, Nr. 6 (1. Januar 2015): 50–71; für die Notwendigkeit spezieller Aufsichtsformen für Plattformen siehe zum Beispiel die Diskussion dazu in den USA bei Tom Wheeler, Phil Verveer, und Gene Kimmelman, „New Digital Realities, New Oversight Solutions in the U.S.: The Case for a Digital Platform Agency And a New Approach to Regulatory Oversight“ (Cambridge, MA: Harvard University, August 2020); Paul M. Barrett und Lily Warnke, „Enhancing the FTC’s Consumer Protection Authority to Regulate Social Media Companies“ (New York, NY: NYU Stern Center for Business and Human Rights, Februar 2022); Harold Feld, „The Case for the Digital Platform Act: Market Structure and Regulation of Digital Platforms“ (Washington, DC: Public Knowledge, Mai 2019); teils darauf basierend gibt es auch Gesetzesvorschläge für eine eigenständige Plattformaufsicht, siehe Justin Hendrix, „Digital Platform Commission Act Introduced in U.S. Senate“, Tech Policy Press, 14. Mai 2022; Justin Hendrix, „Reps. Trahan, Schiff & Casten Introduce Digital Services Oversight and Safety Act“, Tech Policy Press, 23. Februar 2022.

 

[16] Die Medienanstalten, „Schnell und effizient gegen rechtswidrige Inhalte im Netz“, 15. Januar 2019.

 

 

[18] Bundeskartellamt, „Bundeskartellamt legt Zwischenbericht zur Sektoruntersuchung Messenger- und Video-Dienste vor“, 4. November 2021; siehe auch Bundeskartellamt, „Bundeskartellamt und BSI: Partner im Dienst der Verbraucherinnen und Verbraucher“, Bundeskartellamt, 22. Januar 2021.

 

 

 

[21] Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, „Update BfDI 2.0 - Ausblick 2016“, 29. Dezember 2015; Nikola Schmidt, „Ohne öffentliche Ausschreibung keine unabhängige Datenschutzbehörde“, Verfassungsblog, 9. Dezember 2014.

 

 

[23] dpa/pdi/LTO-Redaktion, „EuGH: Bundesnetzagentur nicht unabhängig genug“, Legal Tribune Online, 2. September 2021.

 

 

 

[26] Vgl. Holznagel, „Kein Staatsfernegebot für das NetzDG“; für eine tiefergehende Auseinandersetzung siehe Wolfgang Schulz, Peggy Valcke, und Kristina Irion, Hrsg., The Independence of the Media and Its Regulatory Agencies. Shedding New Light on Formal and Actual Independence against the National Context (Bristol: Intellect, 2014).

 

 

[28] Vgl. Max Bank u. a., „The lobby network: Big Tech’s web of influence in the EU“ (Brussels: Corporate Europe Observatory and LobbyControl, 31. August 2021).

 

[29] Johnny Ryan und Alan Toner, „Europe’s Enforcement Paralysis: ICCL’s 2021 Report on the Enforcement Capacity of Data Protection Authorities“ (Dublin: Irish Council for Civil Liberties, 13. September 2021); German Data Protection Authorities, „Evaluation of the GDPR under Article 97: Questions to Data Protection Authorities/European Data Protection Board. Answers from the German Supervisory Authorities“ (Brussels: European Data Protection Supervisor, 2020), 15.

 

[30] § 203 TKG, § 59a GWB, § 16 BDSG bzw. MStV, z. B. §§ 16, 56

 

[31] § 205 TKG, § 59b GWB, § 16 BDSG bzw. § 56 MStV

 

[32] Bundesnetzagentur, „Bußgeld gegen Call-Center wegen unerlaubter Telefonwerbung“, 17. Februar 2021.

 

[33] Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, „BfDI verhängt Geldbußen gegen Telekommunikationsdienstleister“, 9. Dezember 2019.

 

[34] Axel Kannenberg, „Datenschutzverstoß bei 1&1: Gericht senkt Millionenstrafe deutlich ab“, heise online, 11. November 2020.

 

[35] Joachim Huber, „Zwangsgeld von 50.000 Euro: RT.DE ignoriert weiter Sendeverbot“, Tagesspiegel, 29. März 2022.

 

[36] LTO, „OLG setzt BKartA-Anordnung gegenüber Facebook aus“, Legal Tribune Online, 26. August 2019.

 

[37] Vgl. Alexandre de Streel und Michèle Ledger, „New Ways of Oversight for the Digital Economy“ (Brussels: CERRE, Februar 2021); Tom Wheeler, „A Focused Federal Agency Is Necessary to Oversee Big Tech“, Brookings, 10. Februar 2021; Feld, „The Case for the Digital Platform Act“.

 

[38] Vgl. hierzu die Idee der „Modularität“ bei der transatlantischen Plattformregulierung, siehe Susan Ness und Chris Riley, „A Safe, Open Internet with Transatlantic Rules Is Easier than It Sounds“, The Hill, 6. Mai 2022.

 

[39] Vgl. Stefan Heumann, „Scheinlösung Digitalministerium: Welche tiefgreifende Reformen von Regierung und Verwaltung für eine erfolgreiche Digitalpolitik nötig sind“ (Berlin: Stiftung Neue Verantwortung, 17. März 2021); vielen Dank an Alexandre de Streel für die Hinweise zu Aufsichtsstrukturen, siehe auch Monti und de Streel, „Improving EU Institutional Design to Better Supervise Digital Platforms“.

 

[40]  Digital Regulation Platform, „Regulator Structure and Mandate“, 1. September 2020.

 

 

 

[43] Dreyer, Oermann, und Schulz, 41–43.

 

[44] Die Koalition hat hierzu den Leitsatz ausgegeben, dass neue Bundeseinrichtungen „in den ostdeutschen Bundesländern und strukturschwachen Regionen“ angesiedelt werden sollen, siehe SPD, Bündnis 90/Die Grünen, und FDP, „Mehr Fortschritt wagen: Bündnis für Freiheit, Gerechtigkeit und Nachhaltigkeit“, 24. November 2021, 130.

 

[45] Stiftung Datenschutz, „Die Zukunft der Datenschutzaufsicht“, Stiftung Datenschutz, 17. September 2020; Christiane Schulzki-Haddouti, „Wirtschaftsminister: Landesdatenschützer sollen Kontrolle über Firmen verlieren“, Golem, 3. Juni 2020; Datenethikkommission, „Gutachten der Datenethikkommission. Kurzfassung“ (Berlin: Datenethikkommission, 2019), 11; Kommission Wettbewerbsrecht 4.0, „Ein neuer Wettbewerbsrahmen für die Digitalwirtschaft: Bericht der Kommission Wettbewerbsrecht 4.0“ (Berlin: Bundesministerium für Wirtschaft und Energie, 9. September 2019), 84–85.

 

 

[47] Bundesministerium für Wirtschaft und Energie, „Weißbuch Digitale Plattformen des BMWi - Kurzfassung“ (Berlin: Bundesministerium für Wirtschaft und Energie, 20. März 2017).

 

[48] Thomas Fetzer, „Bausteine für einen sektorenübergreifenden institutionellen Ordnungsrahmen für die Digitale Wirtschaft (Discussion Paper No. 18-026)“ (Mannheim: Leibniz-Zentrum für Europäische Wirtschaftsforschung, Dezember 2017), 39–48.

 

[49] Christoph Busch, „Regulierung digitaler Plattformen als Infrastrukturen der Daseinsvorsorge“ (Bonn: Friedrich-Ebert-Stiftung, März 2021).

 

 

 

[52] Stephan Dreyer, „Jugendschutzgesetz: Neu, aber auch besser?“, Tagesspiegel Background Digitalisierung & KI, 7. April 2021; Lutz Hachmeister, Justine Kenzler, und Fabian Granzeuner, „Das kalkulierte Vakuum der deutschen Medienpolitik“, Medienkorrespondenz, 7. Januar 2019; Stephan Dreyer und Wolfgang Schulz, „Schriftliche Stellungnahme zum zweiten Diskussionsentwurf eines Medienstaatsvertrags der Länder vom Juli 2019“ (Hamburg: Hans-Bredow-Institut, August 2019).

 

[53] Lutz Hachmeister, Kai Burkhardt, und Claudia K. Huber, „Das Ende der Rundfunkpolitik“, Aus Politik und Zeitgeschichte, Nr. 9–10 (17. Februar 2009); siehe auch Hachmeister, Kenzler, und Granzeuner, „Das kalkulierte Vakuum der deutschen Medienpolitik“; für eine Replik siehe Kai Burkhardt, „Aus der Mottenkiste“, Medienkorrespondenz, 19. Dezember 2014; für weitere Kritikpunkte und Vorschläge siehe Otfried Jarren, „Kommunikationsrat für Facebook, Google & Co?“, Schrader Stiftung, 4. Mai 2018; Christoph Bieber, Leonhard Dobusch, und Jörg Müller-Lietzkow, „Die Internetintendanz“, Medienkorrespondenz, 28. April 2019.

 

[54] Hamburgischer Senator für Kultur und Medien, „Neuer Medienstaatsvertrag 2020 ersetzt Rundfunkstaatsvertrag“, hamburg.de, 6. November 2020; Carsten Brosda und Wolfgang Schulz, „Aufruf an die Bundesländer: Wir brauchen eine neue Medienpolitik“, Frankfurter Allgemeine Zeitung, 10. Juni 2020; dennoch sieht Brosda die DSA-Aufsichtsstruktur kritisch, siehe seine „Rede beim Mediendialog 2022“, hamburg.de, 3. Mai 2022; Jürgen Brautmeier, „Mehr Mut: Moderne Medienregulierung ist möglich“, Medienkorrespondenz, 20. Februar 2015; Anja Zimmer, „Wie Medienvielfalt zukunftsfest machen? 20 Bausteine für eine konvergente Medienregulierung“ (Bonn: Friedrich-Ebert-Stiftung, März 2022).

 

[55] Hans Hege, „Zukunft der Medienpolitik: Warum keine Medienagentur?“, Frankfurter Allgemeine Zeitung, 23. Juni 2020; siehe für frühere Kritik auch Stefan Niggemeier, „Was ist noch zeitgemäß?“, Frankfurter Allgemeine Sonntagszeitung, 3. Mai 2015.