3.1 Welche Expertise zu den Aufgaben des DSC gibt es in Deutschland, wo sind Lücken?
Aufsicht und Durchsetzung
Dadurch, dass der Begriff „Koordinator“ Teil der Bezeichnung der neuen Stelle ist, wird der Aspekt der Koordination beim DSC in den Vordergrund gerückt. Aber der DSC soll die Durchsetzung des DSA nicht nur koordinieren, sondern ist auch selbst dafür mitverantwortlich. Für die Plattformen, die nicht als „sehr groß“ gelten, übernimmt der DSC die Aufsicht, und auch bei der Aufsicht für „sehr große“ Plattformen kann er beteiligt sein (siehe Schaubilder 1 und 2 in Abschnitt 1). Zudem gibt es spezielle Aufgabenbereiche, in denen der DSC unabhängig von der Plattformgröße aktiv werden soll. In Deutschland ist zu einigen Punkten noch keine Expertise vorhanden, zu anderen Punkten ist sie über viele Stellen verstreut. Ein ganzheitlicher Blick auf Plattformaufsicht, wie ihn der DSA zumindest anregt, ist dadurch nicht gegeben.
Eine wichtige Aufgabe des DSC betrifft Datenzugänge und -analyse. Hierzu gibt es Deutschland bisher nur wenig Erfahrungen, weshalb bestehende Strukturen deutlich erweitert werden müssten. Der DSC muss in der Lage sein, große Datenmengen von Plattformen anzufordern und zu analysieren. Der DSA sieht vor, dass sehr große Plattformen auf Verlangen Daten bereitstellen müssen, damit der DSC im Land der Plattformniederlassung und auch externe Forschende Untersuchungen anstellen können. In der Vergangenheit gelangte Fehlverhalten von Tech-Unternehmen hauptsächlich dann ans Licht, wenn Journalist:innen oder Forschende durch Leaks oder Whisteblower:innen an interne Daten kamen. Zum Beispiel legte Sophie Zhang Missstände bei Facebook im Umgang mit Desinformation offen[5] und Frances Haugen prangerte an, dass die Plattform mögliche negative Auswirkungen ihres Angebots auf Minderjährige billigend in Kauf nimmt[6]. Mit dem DSA soll es leichter werden, Daten der Plattformen zu erhalten und deren Funktionsweise so besser zu verstehen, was letztlich auch dabei helfen dürfte, die Regeln etwa für Inhaltemoderation und Transparenz langfristig zu verbessern. Auch wenn viele sehr große Onlineplattformen ihren Hauptsitz nicht in Deutschland haben: Welche Behörde könnte überhaupt selbst mit großen Mengen Daten umgehen, diese analysieren und daraus Schlüsse ziehen?
In vielen deutschen Behörden steht eine datengestützte Regulierung noch am Anfang. Die Notwendigkeit für und das Potenzial von Datenwissenschaften in Aufsichtsbehörden werden zwar erkannt, aber die Strukturen dazu befinden sich vielfach noch im Aufbau. Ein Beispiel für eine Behörde, die bereits mit Daten arbeitet und diese Aktivitäten weiter ausbaut, ist die Bundesnetzagentur. Beispielsweise empfängt die Netzagentur im Rahmen von Marktanalysen umfangreiche Datensätze. Darüber hinaus wird dort gezielt eine Unterabteilung aufgebaut, die verstärkt auf Datenwissenschaften setzt: Neben der historisch gewachsenen sektorspezifischen Aufsicht für Stromnetze oder Telekommunikation betrachtet die Unterabteilung „Internet, Digitalisierungsfragen“ nun nicht einzelne Sektoren, sondern bearbeitet unabhängig von vorgegebener Regulierung zum Beispiel Studien und Marktanalysen zu Plattformen oder bestimmten Einsatzgebieten von „Künstlicher Intelligenz“. Auch andere Stellen arbeiten mit großen Datensätzen und eigenen Datenbanken, zum Beispiel die Medienanstalten mit der Mediendatenbank oder die Marktbeobachtungen des Verbraucherzentrale Bundesverbands (vzbv). Solche Expertise müsste deutlich erweitert werden, damit Daten so genutzt werden können, dass Systeme für Inhaltemoderation, algorithmische Empfehlungen oder die Platzierung von Onlinewerbung besser verstanden werden. Dafür sind spezialisierte Fachleute aus Computer- und Datenwissenschaft nötig.[7] Zusätzlich bedarf es auch der Praxiserfahrung und Kenntnisse zu Soziologie, Antidiskriminierung, Menschenrechte und Psychologie. Neben der nötigen Expertise auch die Motivation vorhanden sein, Plattformdaten anzufragen und auszuwerten, was bislang selten Teil des Selbstverständnisses deutscher Behörden war.
Es ist aber nicht nur der DSC, der künftig Plattformdaten anfragen kann. Eine der bedeutendsten Innovationen des DSA ist es, dass Forschende ebenfalls diese Möglichkeit haben sollen. Auch hier spielt der DSC eine Rolle: Bevor Wissenschaftler:innen an Daten kommen, muss der DSC die Antragstellenden überprüfen („vetting“), indem zum Beispiel die Datenschutzkonzepte und Forschungszwecke kontrolliert werden. Eine solche Vorabkontrolle von Forschenden für die Datennutzung ist in deutschen Gesetzen bisher nicht vorgesehen, zumindest nicht durch Behörden. Plattformen können jeweils nach eigenen Regeln entscheiden, ob sie Daten zur Verfügung stellen und wenn ja, wem und auf welche Weise. Zwar gibt es in Deutschland Vorgaben, wie mit einem Antrag auf Datenzugang umzugehen ist. Doch erstens liegt die Prüfung bei den Unternehmen und nicht den Behörden, und zweitens gibt es bisher kaum Erfahrungswerte hierzu, da die Regeln erst seit Anfang 2022 gelten (hinsichtlich des NetzDG; siehe dazu unten). Ein indirekter Anknüpfungspunkt für eine Vorabkontrolle in der deutschen Behördenlandschaft sind Zertifizierungsverfahren etwa bei der BNetzA oder bei den Medienanstalten, wobei es hier oft um technische Systeme, zum Beispiel zur Altersverifikation, und nicht um Menschen geht. Es besteht also auch zur Vorabkontrolle eine Kompetenzlücke in Deutschland. Hier könnte sich ein Blick auf die Stärken und Schwächen der unterschiedlichen Ansätze der Tech-Unternehmen lohnen.
Die Regeln zum Datenzugang zu gestalten, ist also eine wichtige Aufgabe, die dem DSC speziell zugewiesen wird und für die in Deutschland nicht auf langjährige Erfahrungswerte zurückgreifen kann. Zu anderen Aufsichtsaufgaben des DSA gibt es schon Expertise, wobei diese auf mehrere Stellen verteilt ist und jeweils nur Ausschnitte des DSA berücksichtigt. Das ist zum Beispiel für die Frage zur Inhaltemoderation und der Entfernung möglicher illegaler Inhalte der Fall.
Der DSA sieht vor, dass Plattformen ihre Inhaltemoderation den Nutzenden verständlich erklären und jährlich darüber berichten müssen. Auch soll es Meldewege für möglicherweise illegale Inhalte geben („notice-and-action“-Verfahren). Wenn Plattformen von Behörden über illegale Inhalte informiert wurden, müssen die Unternehmen diese Inhalte löschen. Diese Regeln betreffen in Deutschland viele Behörden und Rechtsgebiete – sie können mit Produktsicherheit, Meinungsfreiheit, weiterem Grundrechtsschutz, dem Strafgesetzbuch oder mit alldem zu tun haben. Mit diesen vielfältigen Aspekten setzen sich unterschiedliche Regelwerke und Behörden auseinander. Einige wichtige deutsche Gesetze, die diese Teile des DSA berühren, sind der Medienstaatsvertrag (MStV) der Bundesländer, das Netzwerkdurchsetzungsgesetz (NetzDG) und das Jugendschutzgesetz (JuSchG). Sie befassen sich ausdrücklich mit Arten von Onlineplattformen, die auch im DSA abgedeckt sind. Anhand dieser Gesetze werden Stärken und Schwächen der deutschen Plattformaufsicht sichtbar.
Der MStV regelt maßgeblich die Medienaufsicht in Deutschland. Er trat nach jahrelangem Reformprozess Ende 2020 in Kraft, die dazugehörigen Satzungen teilweise erst Anfang 2022. Mit dieser Reform sind Landesmedienanstalten erstmals für „Medienintermediäre“ zuständig, was sich teils mit „Onlineplattformen“ aus dem DSA deckt. Medienintermediäre sind etwa soziale Netzwerke, Videoportale und Suchmaschinen, nicht aber Onlinemarktplätze, die im DSA ebenfalls behandelt werden. Die Medienanstalten sollen zum Beispiel sicherstellen, dass diese Dienste ihre Empfehlungssysteme erläutern. Im Gegensatz zu den weiter gefassten Zielen des DSA geht es bei dieser Transparenzvorgabe allerdings hauptsächlich um die Sicherung der Meinungsvielfalt. Andere Fragen des Grundrechtsschutzes werden nicht ausdrücklich behandelt, wohingegen der DSA sich auf alle Grundrecht bezieht und zum Beispiel Verbraucher:innenschutz und das Recht auf Privatsphäre ausdrücklich erwähnt.
Das Bundesamt für Justiz (BfJ) fokussiert sich aufgrund des NetzDG ebenfalls ausdrücklich auf die Aufsicht speziell von Onlineplattformen.[8] Mit Onlineplattformen sind im NetzDG soziale Netzwerke gemeint, es geht also nicht um Onlinemarktplätze, die im DSA auch abgedeckt sind. Das NetzDG sieht seit 2017 unter anderem vor, dass Plattformen für Nutzende Meldewege für möglicherweise illegale Inhalte bereitstellen und Berichte über Inhaltemoderation und -löschung vorlegen müssen. Diese Regeln gelten für Plattformen mit mindestens zwei Millionen registrierten Nutzenden in Deutschland, was eine deutlich niedrigere Schwelle ist als die 45 Millionen Nutzenden in der EU pro Monat, die laut DSA eine „sehr große Onlineplattform“ ausmachen. Das BfJ soll für die Einhaltung der Regeln sorgen, hatte allerdings lange dafür nur begrenzte Befugnisse. Erst durch eine spätere NetzDG-Reform, die seit Ende 2021 in Kraft ist, erhielt das BfJ überhaupt Aufsichtsbefugnisse für Onlineplattformen. Vorher war das Amt eine „Verfolgungsbehörde“ und durfte deshalb nicht vorsorglich mit Tech-Unternehmen in Kontakt treten, sondern nur in langwierigen, förmlichen Prozessen zu möglichen Gesetzesverstößen mit ihnen kommunizieren.[9] Das schwächte lange die NetzDG-Aufsicht.[10] Doch selbst bei den Maßnahmen, die vor der Reform erlaubt waren, gab es Schwächen: Zum Beispiel verhängte das BfJ ein Bußgeld gegen Facebook, doch der Konzern weigerte sich jahrelang ohne Konsequenzen, dieses zu zahlen.[11]
Anders als das BfJ ist die Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) ausdrücklich auf einen „dialogischen“ Regulierungsansatz ausgerichtet. Sie fußt auf dem Jugendschutzgesetz, das nach langer und teils konfliktreicher Diskussion zwischen Bund und Ländern 2021 in Kraft trat. Ähnlich wie bei den Landesmedienanstalten ist der thematische Fokus hier sehr eng begrenzt, denn es geht ausschließlich um Kinder- und Jugendschutz.
Diese Beispiele verdeutlichen, dass es in Deutschland ein Bewusstsein dafür gibt, dass es eigene Regeln für Plattformen braucht. Das deckt sich grundsätzlich mit dem DSA. Zudem haben die Gesetze bewirkt, dass in den zuständigen Behörden spezialisierte Expertise zu Plattformen aufgebaut wurde. Für andere Behörden gilt das ebenfalls, zum Beispiel für die BNetzA und auch das BKartA. Allerdings werden auch Schwächen deutlich, wenn die Aufgaben des DSC betrachtet werden: Eine Lehre aus der Entwicklung des BfJ ist es, dass der DSC mit Plattformen kommunizieren dürfen sollte und ausreichend Durchschlagkraft braucht, um sich gegebenenfalls gegen sie durchsetzen zu können. Medienaufsicht und Jugendmedienschutz kümmern sich um wichtige Aspekte des Grundrechtschutzes auch auf Plattformen, was mit den Zielen des DSA übereinstimmt. Allerdings decken sie eben nur Teilaspekte des DSA ab, der einerseits über soziale Netzwerke und andererseits über Fragen zur Meinungsvielfalt beziehungsweise des Jugendmedienschutzes hinausgeht. Eine weitere Herausforderung für den DSC ist es, die Besonderheiten kleinerer Plattformen zu berücksichtigen. In Deutschland liegt der Fokus der Plattformaufsicht oft auf sehr großen Onlineplattformen, die nach dem Inkrafttreten des DSA aber hauptsächlich von der Kommission beaufsichtigt werden sollen. Das ist etwa beim Bundeskartellamt der Fall, wo das Aufgabenfeld logischerweise meist größere Unternehmen und Unternehmenszusammenschlüsse umfasst. Auch der Blick der Medienanstalten richtete sich nach dem Inkrafttreten des Medienstaatsvertrags zum einen auf sehr große Plattformen[12] und zum anderen auf individuelle Blogs und Webseiten[13]. In Deutschland gibt es allerdings auch viele kleinere soziale Netzwerke und Onlinemarktplätze, die von den Regeln des DSA betroffen sein könnten. Anders als große, globale Tech-Konzerne sind sie weniger im Rampenlicht, stehen oft in einer mittelständischen Unternehmenstradition und haben weniger Ressourcen für politische und wirtschaftliche Vernetzung.[14] Noch mehr als größere Plattformen könnten sie davon profitieren, im Austausch mit einer Behörde zu stehen, die diese Rahmenbedingungen kennt und in der eigenen Kommunikationsarbeit berücksichtigt.
Anhand dieser Überlegungen wird deutlich: An mehreren Stellen in Deutschland gibt es vielversprechende Ansätze zur Plattformaufsicht, sei es zum Aufbau von datengestützter Aufsicht, sei es zu wichtigen inhaltlichen Themen, sei es zur Regulierung, die auf Dialog setzt. Es fehlt jedoch ein Fokus auf eine ganzheitliche, grundrechtsbezogene Plattformaufsicht, die gerade kleine bis mittelgroße Plattformen berücksichtigt. Der DSA fordert einen solchen Fokus nicht direkt von einem einzelnen DSC ein, aber die vorgesehenen Aufsichtsaufgaben regen zumindest dazu an, die entsprechende Expertise aufzubauen. Es lohnt sich daher, aus den vorhandenen Strukturen Lehren zu ziehen. Das heißt jedoch nicht, dass diese Strukturen die einzige Blaupause sind oder sein sollten. Parallelen zu anderen Industrien und regulatorischen Ansätzen gilt es zu berücksichtigen, aber soziale Netzwerke sind keine Fernsehsender und Onlinemarktplätze sind keine Postdienstleister. Dementsprechend muss das „institutionelle Design“ von Plattformregulierung auch auf einem „ganzheitlichen“ und nicht ausschnittsweisen Verständnis von Plattformen und Inhaltemoderation basieren.[15] Deutschland ist dank mehrerer Reformen bei der Medienregulierung, beim NetzDG und auch im digitalen Jugend- und Verbraucher:innenschutz zwar weiter als andere Länder, aber trotzdem noch deutlich von einem solchen ganzheitlichen Aufsichtsansatz entfernt.
Koordination und Kooperation
Deutschland hat bereits viele Erfahrungswerte zur Koordination unterschiedlicher Stellen, was dem DSC helfen könnte. Doch selbst mit diesen Erfahrungen ist offen, ob die Koordinationsaufgaben des DSC von bestehenden Stellen bereits erfüllt werden.
Beispiele für innerdeutsche Koordinationsmechanismen finden sich viele. Die Notwendigkeit hierfür ist gerade in den Politikfeldern ausgeprägt, in denen die Bundesländer eine wichtige Rolle spielen. Dies gilt etwa für den Datenschutz: Die Länderbehörden sind für die Aufsicht des Privatsektors in ihrem Bundesland zuständig. In der Datenschutzkonferenz (DSK) erarbeiten sie unter jährlich wechselndem Vorsitz gemeinsame Stellungnahmen oder Entschließungen. In der DSK ist zudem der Bundesbeauftragter für den Datenschutz und die Informationsfreiheit (BfDI) vertreten, der sich um die Datenschutzaufsicht der Bundesbehörden (und einiger privatwirtschaftlicher Sektoren) kümmert.
Auch in der Medienregulierung sind mit den Landesmedienanstalten Institutionen auf Länderebene für die Aufsicht zuständig, in diesem Fall über TV-Sender, Radiostationen und einige Internetangebote. Doch es gibt keine Bundesbehörde wie im Datenschutz. Auf Bundesebene gibt es allerdings eine gemeinsame Geschäftsstelle der Landesmedienanstalten, die ausdrücklich dafür geschaffen wurde, als „zentrale Anlaufstelle“ für die Landesmedienanstalten zu dienen und deren Arbeit zu koordinieren. Sie unterstützt zudem Gremien der Landesmedienanstalten auf Bundesebene, etwa die Direktorenkonferenz (DLM), die Kommission für Jugendmedienschutz (KJM) und die Kommission für Zulassung und Aufsicht (ZAK). Diese Gremien koordinieren nicht nur den Informationsaustausch oder das Verfassen von Stellungnahmen, sondern treffen regulatorische Entscheidungen der Medienaufsicht. Sie sind unterschiedlich aufgebaut: Teils bestehen sie ausschließlich aus Vertretungen der Landesmedienanstalten (wie bei der ZAK; die Kosten hierfür tragen die Landesmedienanstalten), teils nehmen auch andere Behörden- und Interessenvertretungen teil (wie bei der KJM).
Diese Beispiele offenbaren, wie unterschiedlich Koordinationsstrukturen in Deutschland aufgebaut sein können, je nach rechtlicher Grundlage und auch historischer Entwicklung. Die gemeinsame Geschäftsstelle ist eine ständig verfügbare Anlaufstelle und gibt selbst keine koordinierten Stellungnahmen ab. Damit ist sie anders aufgestellt als die Datenschutzkonferenz, deren Büro jährlich je nach Vorsitz wechselt und deren Koordinationsarbeit unter anderem im Verfassen gemeinsamer Stellungnahmen besteht. Beides wiederum unterscheidet sich von den weiteren Gremien der Medienregulierung, die nicht nur Vertretungen der Medienanstalten zusammenbringen, sondern auch die Aufsicht und Durchsetzung mitbestimmen.
Für die koordinierende Rolle des DSC kommt noch eine zusätzliche Facette hinzu: Es geht gerade nicht darum, ausschließlich Behörden aus einem Politikfeld zu koordinieren, wie das beim Datenschutz beziehungsweise der Medienregulierung der Fall ist. Der DSC muss sich mit Themen beschäftigen, die bislang bei unterschiedlichen Behörden angesiedelt waren. Zum Beispiel regelt der DSA, welche Daten für zielgerichtete Onlinewerbung genutzt werden dürfen, was einen starken Bezug zu Datenschutz hat, und er schreibt auch Meldewege für potenziell illegale Inhalte vor, was Fragen des Strafrechts berührt.
Auch für solch sektorübergreifende Behördenkommunikation gibt es Beispiele in Deutschland. Diese reichen von informellen und sporadischen Gesprächen über regelmäßige Treffen bis hin zu formalisierten Kooperationen. Gerade auf Arbeitsebene stehen Mitarbeitende unterschiedlicher Behörden informell im Austausch. Auf Leitungsebene gibt es sowohl ad-hoc Treffen (zum Beispiel, wenn Vertretungen von Medienanstalten und Bundesamt für Justiz das NetzDG diskutieren[16]) als auch regelmäßige Formate (wie die jährlichen Gespräche zwischen Medienanstalten und Bundeskartellamt[17] oder den Austausch zwischen dem BfDI und dem Bundesamt für Sicherheit in der Informationstechnik (BSI)). Die formale Zusammenarbeit kann sich zum Beispiel auf eine gemeinsame Untersuchung zu Messenger- und Videodiensten beziehen (wie beim Bundeskartellamt und BSI geschehen[18]) oder ein gemeinsames Verfahren im Umgang mit Beschwerden sein (wie es Bundesnetzagentur und Medienanstalten vereinbart haben[19]).
Diese ganz unterschiedlichen Koordinationsmechanismen sollten für den Aufbau des DSC gründlich evaluiert werden: Was für eine Art Koordination soll der DSC tatsächlich übernehmen? Wie verhält sich diese Funktion zu den eigenen Durchsetzungsaufgaben? Welche Formen des Informationsaustauschs und welche Koordinationsmechanismen haben sich bewährt? Welcher Grad an Institutionalisierung ist nötig? Ist ein Vorsitz sinnvoll und wenn ja, welcher Art?
Der DSC müsste mehrere Komponenten bisher bekannter Formate ineinander vereinen: Wie die DSK müsste er Bundes- und Länderbehörden zusammenbringen. Wie die KJM müsste er Koordinations- und Aufsichtsaufgaben vereinen. Wie die Verfahrensregeln von BNetzA und Medienanstalten müsste er den formalen Informationsaustausch zwischen Politikfeldern ermöglichen (siehe hierzu auch Abschnitt 4.1). Ein solches Gremium auf Bundesebene, das politikfeldübergreifend sowohl Koordinations- als auch Aufsichtsfunktionen übernimmt, gibt es bislang für die Plattformaufsicht nicht.
Neben der innerdeutschen Koordination kommt der Austausch auf europäischer Ebene als Aufgabe für den DSC hinzu. Auch hierzu gibt es Erfahrungen bei deutschen Behörden, vor allem wegen ihrer Arbeit in europäischen Behördennetzwerken. Solche Netzwerke gibt es zu fast allen Themen (siehe Schaubild 4 in Abschnitt 1), sie sind aber unterschiedlich stark ausgeprägt und institutionalisiert. Die ERGA zum Beispiel, das Netzwerk europäischer Medienaufsichtsbehörden, ist noch relativ jung, hat kein eigenes Büro und kann auf Anfrage der Kommission Meinungen übermitteln. Die BEREC hingegen, das Netzwerk der Telekommunikationsregulatoren in der EU, wurde in einer eigenen Verordnung als EU-Gremium etabliert, unterhält ein Büro und seine Stellungnahmen müssen von der Kommission berücksichtigt werden. In beiden Fällen – und auch zum Beispiel im Wettbewerbsrecht oder Verbraucher:innenschutz – ermöglichen solche EU-Netzwerke es deutschen Stellen, sich mit anderen europäischen Behörden sowie der Europäischen Kommission auszutauschen. Das ist eine wichtige Aufgabe des DSC, zu der demnach viele deutsche Stellen bereits Erfahrungen haben.
Die europäischen Netzwerke sind teilweise auch untereinander verbunden oder zumindest im Austausch miteinander. Ein Beispiel dafür sind Treffen zwischen BEREC und ERGA[20] oder die Beteiligung der BNetzA im europaweiten Netzwerk der Verbraucher:innenschutzbehörden („Consumer Protection Cooperation“, CPC) zu Geoblocking. Dennoch ist dieser Austausch auf EU-Ebene über mehrere Themenfelder hinweg weniger stark ausgeprägt. Auch das muss der DSC aber leisten, etwa als Teil des neu geschaffenen „Europäischen Gremiums für digitale Dienste“. Dieses Gremium soll aus allen DSCs bestehen, was bedeutet, dass hier Regulatoren aus unterschiedlichen Bereichen vertreten sein könnten. Zum Beispiel hatte Frankreich seinen reformierten Medienregulierer als DSC ins Spiel gebracht. In anderen Ländern könnten es hingegen Verbraucher:innenschutz- oder Telekommunikationsregulierer oder ganz neu geschaffene Stellen sein. Über die Zusammenarbeit im Gremium hinaus kann es auch konkrete Fälle geben, in denen verschiedene DSCs gemeinsam Untersuchungen durchführen oder Informationen austauschen. Für den deutschen DSC sollten deshalb Erfahrungswerte zu themen- und grenzüberschreitenden Aufsichtsstrukturen gesammelt werden.