Transkript: Cambridge Analytica & Facebook

Beitrag

Es handelt sich um ein Transkript der Veranstaltung "Cambridge Analytica & Facebook" mit Hannes Grassegger, Journalist, und Alexander Sängerlaub vom 8.5.2018 in der Stiftung Neue Verantwortung. Der Text wurde zur besseren Lesbarkeit bearbeitet. Es gilt das gesprochene Wort.

 

Alexander Sängerlaub: Hallo zusammen, herzlich Willkommen in der Stiftung Neue Verantwortung, schön, dass Sie Interesse haben und heute Abend hier sind zu unserer Veranstaltung mit Hannes Grassegger, herzlichen Dank, dass Sie heute hier unser Gast sind. Wir wollen heute sprechen über Cambridge Analytica und den großen Mythos, den großen Wandel, den wir in der Öffentlichkeit zu diesem Phänomen erlebt haben.

Darüber wollen wir heute sprechen mit Hannes Grassegger, der an der ETH Zürich Wirtschaftswissenschaften studiert hat und als Journalist und Autor für ganz verschiedene Medien schreibt, unter anderem für den Guardian, für die Süddeutsche, für die Zeit und auch für das Magazin „Das Magazin“, in dem 2016 der Artikel, „Ich habe nur gezeigt, dass es die Bombe gibt“ veröffentlicht wurde. Ein Artikel, der ihnen wahrscheinlich noch gut im Gedächtnis ist, weil er ein viraler Hit war und eine Debatte ausgelöst hat, die ein bisschen abgestumpft ist, aber die im Grunde genommen dieses Jahr mit den Veröffentlichungen im Guardian and Chris Wylies Whistleblowing nochmal neue Fahrt aufgenommen hat.

Und Hannes Grassegger wird dieses Jahr den deutschen Wächterpreis der Tagespresse entgegennehmen dürfen, den er gewonnen hat für einen Artikel über den Umgang Facebooks mit gewalttätigen Videos. Also es ist ein Thema, was ihn beschäftigt, wie sich Facebook als Unternehmen den Problemen da draußen widmet oder nicht widmet.

Okay, dann starten wir. Erste Frage ganz banal, wie sind Sie denn überhaupt auf Cambridge Analytica und Michal Kosinski gekommen?

Hannes Grassegger: Also erstmal vielen Dank für diese ungeheuer eloquente und fließende Einführung. Bei uns in der Schweiz ist man... wir fangen immer erst so ganz langsam an anzufahren, aber ich versuche jetzt genau rasant da loszulegen. Der Hintergrund ist, dass ich im Jahr 2014 ein kleines Buch raus gebracht habe, dessen Vorwort ins Englische übersetzt ist und da rede ich drüber, dass wir im Prinzip unsere Daten... dass wir damit unser Innenleben preisgeben und dass wir darüber keine Kontrolle haben. Ich habe dann über diese englische Übersetzung lustigerweise auf einer Veranstaltung mit einem Mathematiker namens Paul-Olivier Dehaye, kennengelernt, das ist ein belgischer Mathematikprofessor, der mich ganz aufgeregt angesprochen hat, ich hätte doch diesen Essay da verfasst über Dateneigentum und bei ihnen an der Uni passiere etwas furchtbares, persönliche Daten von den ganzen Studenten würden an die großen Silicon Valley Onlinekurs-Anbieterplattformen fließen, die Unis hätten gar keine Kontrolle mehr drüber. Das war 2015.

Darüber haben wir einen Artikel gemacht und seitdem haben wir uns immer ausgetauscht. Im Prinzip hat er mich in diese Thematik an der Universität sehr dezidiert eingeführt und dann, 2016 kam heraus, dass diese Forschungsfreiheit noch weiter bedroht ist. Cambridge University sei jetzt auch beklaut worden, ja und diese Daten flößen da so in so eine Politikfirma ein. Und Paul ist so ein Typ, der sich für ganz viele solche Sachen interessiert und ich bin ja ein Vermittler als Journalist und habe mir dann diese Firma angeguckt, weil die klang ziemlich dubios.

Also Ted Cruz war mit einer der langweiligsten Kandidaten damals, für ihn haben Cambridge Analytica gearbeitet und der Guardian hatte das in einem Artikel beschrieben, dass eine Datenfirma für Ted Cruz mit Cambridge Analytica Daten auswertet und es gäbe da so einen komischen Forscher. Und wenn man sich diese Firma also Cambridge Analytica näher anguckt, dann merkt man, dass sie eigentlich aus dem Militärbereich kommt. Und das fand ich schon ziemlich interessant, dass man sieht, dass eine Firma, die auf Schlachtfeldern weltweit unterwegs ist und auch Militärzulieferer jetzt im Kern der Demokratie im Wahlbusiness tätig sind mit digitalen Methoden. Und das war ein perfektes Beispiel für all das, was ich in meinem Büchlein beschrieben hatte, wo es darum geht, was mit unseren Daten derzeit gemacht wird.

Das war ein Beispiel, wo es um Macht geht und um Firmen und dann habe ich diese Figur entdeckt, diesen Alexander Nix. Und meine Taktik ist es, so komplizierte Digitalzusammenhänge durch Narrative zu vermitteln. Ich versuche immer, Geschichten zu bilden und immer dort, wo ich eine Geschichte bilden kann, dort kann ich auch anfangen, wirklich tief rein zu gehen. Und dann sehe ich, in dieser Geschichte gibt es einerseits diesen blonden-gegelten Englische Stiff Upper Lip-Character Alexander Nix, CEO von Cambridge Analytica –  und etwas später treffe ich in Zürich Michal Kosinski, den Forscher der diese Methoden entwickelt hat... also fünf Monate nach Beginn der Recherche, am Wahltag in den USA, ist er wirklich bei uns in der Stadt gewesen und zwar beim völlig überraschenden Wahlsieg von Trump.

Ich hatte überhaupt damit gerechnet, keine Ahnung gehabt, dass es so kommt, wir haben es nicht vorhergesehen, sondern das Ziel war eigentlich, eine Geschichte über die seltsamen und vielleicht schäbigen und vielleicht kriminellen Digitalleute von Trump im Nachhinein, nach Trumps Niederlage rauszubringen. Dann gewinnt Trump plötzlich und dieser Forscher ist in der Stadt, der diese psychologischen psychometrischen Methoden entwickelt hat. Und wir haben den sofort getroffen, da war Paul-Olivier Dehaye auch wieder dabei und dann habe ich gemerkt, wow, Michal Kosinski ist so ein Antagonist zu Nix. Die Erzählung kann man sofort verfassen.

Diese Person (Kosinski) war persönlich betroffen und hat diese Methoden zwar nicht unbedingt entwickelt, aber publiziert vielleicht und dadurch zu deren Verbreitung beigetragen und der war innerlich zerrissen, weil irgendwie wollte er publizieren, aber er hatte auch immer wieder davor gewarnt und dann hat man eigentlich alles, was man für eine Geschichte braucht und ich konnte endlich diese Zusammenhänge erläutern, darauf habe ich Jahr gewartet.

AS: Was war die Bombe im Artikel?

HG: Was die Leute so wahnsinnig gemacht hat und verrückt und alle zum Teilen aufgefordert hat, was die Leute so erregt hat? Es gibt so ein Produkt in der Pressewelt, das ist der sogenannte „Explainer“ nach einer Wahl. Das ist ein Standardprodukt, das erklärt: was war jetzt der eigentliche Grund für den Ausgang der Wahl. Und irgendwie waren alle so baff von Trump, vor allem hier in Deutschland, wo alle so einhellig immer einer Meinung zu sein scheinen. Da waren alle so platt, dass sie gar nicht wussten, was sie sagen und glauben sollen und so hat halt irgendwie keiner richtig tollen Explainer geschrieben und dann kommt plötzlich eine ganz andere Geschichte. Wir haben das gar nicht als Explainer geplant, also ich habe nur gedacht, „Okay, ich schreiben halt meine Digitalgeschichte, es geht halt um Trump, super Beispiel, schäbige Typen, super Figur“.

Und dann schreibe ich halt diese Geschichte und mein Kollege Mikael Krogerus, der da Co-Autor ist, ist ein wahnsinnig guter Werber, der ist super gut im Vereinfachen, wenn ich zu lange Datenschutzparagraphen einbaue und solche Sachen, wie zu detaillierte Erklärungen von einem technischen Vorgang. Der hat zudem Bücher geschrieben über das Five Traits Model (das ja in unsrer Geschichte eine wichtige Rolle spielte) und  kleine coffee-table books über psychologische Vorgänge und Führungspsychologie. Und na ja, wir hatten es halt geschrieben und das war dann zufällig das, was alle für den Explainer gehalten haben und das hat sich dann auch gegen uns gewendet.

AS: Die Bombe ist ja eine Mischung aus persönlicher Verhaltensanalyse, Ad-Targeting und Big Data. Wo liegt da das Explosive in der Mischung? Oder was ist die Qualität des Neuen, die vielleicht in der Zusammenführung dessen dahintergesteckt, dass das auch so viral ging oder dass die Leute gemerkt haben, das hat eine neue Qualität.

HG: Also, das Geheimnis der Viralität kann ich jetzt nicht hier entschlüsseln, das wäre vermessen, aber ich glaube, in dem Artikel ging es halt um etwas, was alle wissen wollten: Donald Trump, ja, was steckt dahinter? Das schon mal so grob. Trump war also interessant. Dann ging es um etwas, was alle benutzen: Facebook. Und es ging um seltsame Leute, die mit dem, das ich auf Facebook mache, komische Sachen anstellen und die haben irgendwie einen Einfluss. Und ich glaube, diese vage Verbindung aus Erklärungsbedarf für Trump, dem Element Facebook und der thrillermäßigen Erzählung eigentlich… ich glaube, das man... normal schaltet man ja irgendwie ab, nach so zwei Seiten Bloomberg, diese Quelle sagt folgendes, diese Quelle sagt so was.

Aber was ich mache, ist ja narrativer Langformjournalismus, also zum Teil schon fast literarisches Schreiben. Im Prinzip einfache Thrillertexte und das hält jeden bei Stange, das heißt, die Leute konnten drüber sprechen. Endlich konnten Leute, die sich eigentlich nicht so viel mit so was beschäftigen, konnten anfangen, sich auszutauschen und dann gibt es so einen selbstverstärkenden Prozess, wo der eine sagt, „Hey, ich hab das wirklich durchgelesen“…Das stand auch oft drunter, bei den Kommentaren so: „Puh, war lang, aber ich habe es durchgelesen.“ Genau.

AS: Cambridge Analytica ist ja insofern auch spannend, weil CA ja schon vor der Trump-Kampagne aktiv war. Also beispielsweise die Kampagne von Ted Cruz haben sie ja auch unterstützt, da scheinbar weniger erfolgreich, sodass Ted Cruz Cambridge Analytica auch wieder abgezogen hat. Wo lag der Unterschied zwischen Ted Cruz und Donald Trump?

HG: Das finde ich interessant, dass Sie jetzt einfach mal so ein Argument aufnehmen, das sagt „weniger erfolgreich“, weil wie haben Sie denn deren Erfolg gemessen? Sie haben ja keine Vergleichsdaten, wie Ted Cruz ohne Cambridge Analytica abgeschnitten hätte. Sie sagen das jetzt einfach, weil sich erstens Ted Cruz und Cambridge Analytica scheinbar nicht zufrieden als Geschäftspartner getrennt haben, zumindest von der Seite Cruz, das ist bekannt. Und zweitens, weil Ted Cruz an sich nicht gewonnen hat, ja. Kann aber trotzdem sein, dass die dem Cruz einen großen Vorteil verschafft haben. Also Sie machen damit eine implizite Annahme, da wäre ich jetzt mal vorsichtig.

Unsere Grundannahme, meine Kernthese als wir angefangen haben, uns diese Firma anzugucken und ich habe das über sechs Monate gemacht, war, dass die dabei sind, eine politische AI zu trainieren, also dass die Machine Learning anwenden in den ganzen Ländern, wo sie in Wahlkampagnen arbeiten, und die AI so auf die Optimierung von Wahlresultaten für ihren Auftraggeber trainieren. Das heißt, wir waren eigentlich der Annahme, dass die bei Ted Cruz dabei sind, ein Modell sozusagen zu feeden, zu trainieren. Und bei den Facebookdaten, die wussten ja, dass dieser Partner von Kosinski, dass der Daten herausgegeben hat.

Ich habe mit dem ganzen Departement von Alexandr Kogan telefoniert, diese Daten sind ja nur in dem Sinne wertvoll, dass man damit halt Regressionsanalysen und Algorithmen für Targetingschritte und Profilierung erstellt, also es dreht sich eigentlich auch nicht um die Daten, ob man die noch hat, die können gelöscht sein, weil wenn du drei Jahre alte Daten hast, die bringen dir eventuell auch nichts mehr. Aber das Modell, das Zusammenhänge aufzeigt, Zusammenhänge sind länger haltbar als kurzfristige persönliche Daten. Ob eine Person jetzt schwanger ist oder nicht, das kann sich ändern, das meine ich.

Auf BBC gab es eine Doku (2)mit Jamie Bartlett, der ein englischer Digitaltyp ist und auch so Geschichten schreibt und Bücher über so Zeug, er ist bei einem Think Tank, der heißt Demos, der hat diesen Alexander Nix dann gefragt: „Ja, habt ihr jetzt wirklich keine psychometrischen Methoden da benutzt, bei Trump?“ Und dann ist er... dann hat Nix sich versprochen, weil er hat gesagt, wir haben „Legacy“ benutzt, das heißt, sie haben mit Ted Cruz trainiert und dann sind sie mit dem Erfahrungen, die sie mit Ted Cruz hatten, sind sie rüber zu Trump. Und deswegen macht es auch überhaupt keinen Sinn, wenn die... zum Beispiel die Firma hat immer wieder das Argument angeführt, wir hatten ja nur so kurz Zeit bei Trump, das ging ja so schnell. Ist doch völlig klar, ja, dass wenn man in so einen Präsidentschaftswahlkampf einfährt, dass sich dann die Republikanische Partei am Schluss entscheiden wird für einen Kandidaten, Das heißt, man wird sich ja im Vorhinein schon eine Strategie überlegen, wie man damit umgeht, dass der Kandidat dann eventuell ein anderer ist als der, mit dem man zuerst arbeitet.

Das heißt, man baut Modelle, die man für verschiedene Kandidaten benutzen kann. Und genau das haben die seit 2014 mit anderen Leuten auch noch gemacht. Es ist also fragwürdig, ob es wirklich nicht erfolgreich war, weil vielleicht war das Ziel auch wirklich ein Modell aufzubauen.

AS: Die Schwierigkeit ist ja so ein bisschen dass Trump viele überrascht hat. Ganz Europa hat wahrscheinlich nicht damit gerechnet und in Amerika genauso, dass er die Wahl gewinnt. Und deshalb wurde nach schnellen Antworten gesucht, so dass man eine Erklärung brauchte, warum Trump im Amt ist. Mein Eindruck, dass wir die Probleme in Amerika so ein bisschen externalisiert haben. Einmal war Russland dann der große Schuldige auf der einen Seite, auf der anderen Seite ist es dann Cambridge Analytica, ein britisches Unternehmen, also man sucht überall die Probleme, nur nicht im eigenen Land.

Hätte Trump auch ohne Cambridge Analytica gewonnen?

HG: Man muss verstehen, dass Cambridge Analytice einerseits ein Datenbetrieb ist, andererseits ist ein ziemlich heftiges globales Netzwerk aus Leuten. Die haben zum Beispiel während sie für die Republikaner gearbeitet haben, aus der indischen Community einen hohen Repräsentanten, ich glaube, es war ein Sikh Vertreter, eingeflogen, einfach nur damit er für die Republikaner auftritt. Ich habe es nicht mehr genau im Kopf, ob das schon während Trump war oder noch davor. Das heißt, es ist genauso ein Menschennetzwerk wie es eine Daten-, Algorithmen- und Targetingfirma ist. Und beide Ebenen sind wahnsinnig schwer zu messen, weil die schlussendliche Wahlentscheidung findet ja...  es ist immer noch eine freie und geheime Wahl. Also was schlussendlich warum angekreuzt wird, wer kann das wirklich genau belegen?

Und deswegen, würde ich vom Gefühl her sagen, Trump hätte auch ohne Cambridge Analytica gewonnen. Aber mir ging es gar nicht um die Wirkung, ich finde das eine verfehlte Debatte. Wenn wir uns im Jahr 1920 anschauen, hey, Ford hat es jetzt hingekriegt, das Modell T seriell zu fertigen. Das erste Auto ist vielleicht noch nicht so schnell wie Pferde und es pöttert so ein bisschen vor sich hin, aber es gibt jetzt serielle Fertigung von Automobilen und das Automobilezeitalter bricht an, dann ist nicht die Geschwindigkeit die erste Frage, sondern was bedeutet das denn? Weil wir wissen, diese Verfahren werden sich verfeinern, verbessern und entwickeln. Und das offenzulegen zu so einem Zeitpunkt, darauf bin ich eigentlich sehr stolz.

Wir haben jetzt praktisch diese Firma offengelegt und die ist ja nur eine Vertreterin von vielen anderen Unternehmen, die ähnliche Methoden haben. Diese Firma hat offengelegt, dass es da eine ganze Industrie gibt, die das als eine Art Standardprodukt anbietet und übrigens auch in der Politik und wo auch immer. Also darum geht es im Kern. Und die Wirkungsmacht davon, die führt eigentlich zu dieser alten Debatte um Manipulation.

Und ich bin, das hat vielleicht niemand gemerkt, aber ich bin eigentlich so ein Mensch, der gar nicht an Manipulation glaubt. Ich habe das Menschenbild von einem selbstständigen Entscheider. Das mag vielleicht eine ideologische Frage sein, aber ich glaube nicht, dass ich Sie so einfach manipulieren kann. Und mir dreht sich es darum, zu sagen, wie funktioniert eigentlich Targeting? Targeting ist: Ich analysiere Sie, ich fange an ein klares Bild zu haben und im besten Fall habe ich eine Art Echtzeitprofil davon, wer Sie sind und in einem Moment, wo ich sehe, dass Sie schwach und offen zugänglich sind für ein bestimmtes Argument meines Kandidaten, nehme ich den bestmöglichen Kanal und schlage sofort zu mit der bestmöglichen Message, die mir zu diesem Thema einfällt. Und das ist alles, was passiert ist. Das ist nicht brainwashing. Das ist was anderes. Targeting ist das Zielen. Es dreht sich um eine detaillierte, um eine gezielte Jagdsituation, nicht um brainwashing.

AS: Auf jeden Fall hat es so neue Qualität. Vor 30 Jahren hat politische Werbung so funktioniert, dass man irgendwo Plakate aufgehängt hat, man weiß nicht, wer vorbei läuft und hat Fernsehwerbung gestaltet, wo man zwar ungefähr weiß, wer die Zuschauer der einzelnen Kanäle sind, aber man sendete gewissermaßen in die Masse. Das ist natürlich schon eine Änderung der Qualität, wenn ich heute genau sagen kann, du hast die und die Persönlichkeit, du wohnst dort und dort, vielleicht sogar genau die Straße, genau die Hobbies, genau die politische Einstellung, sexuelle Orientierung und so weiter und so fort.

Und man kann das so maßschneidern wie man es wahrscheinlich in der Geschichte der Werbung nie maßschneidern konnte. Ist das die neue Qualität?

HG: Natürlich, es folgt einer Idee von Personalisierung. Das ist vollkommen verkannt, dass Personalisierung, diese aus dem Marketing kommende Idee, dass das eigentlich eine Ideologie ist und zwar eine Ideologie, nach der ein wirtschaftliches genauso wie ein politisches System funktionieren kann. Und da dreht es sich um ein maßgeschneidertes Produkt, ja, automatisch erstellt. Cambridge Analytica hat ja nicht nur Facebook Targeting gemacht, damit kann man nicht ganz maßgeschneidert sein, da können sie auf Gruppen oder auf Stockwerke von Häusern oder solche Sachen gehen.

Ich hatte ja ein langes Telefonat mit Alexander Nix, als ich ihn angerufen habe und gesagt habe, ich bin ein Schweizer Wirtschaftsjournalist und wir reden über neue Technologien und damals war die Firma noch sehr am angehen mir ihren Sachen. Da hat er gesagt, ja, wir machen so Sachen, wir gehen auf ein Dutzend von Leuten zu oder so, über Facebook. Dann habe ich ihn gefragt, können sie auch ohne Facebook? Da hat er gesagt, ja, wir könnten auch komplett ohne Facebook, weil erstens diese Daten, die sie sich da zum Modell trainieren gekauft haben, die hätten sie auch über Data Broker kaufen können.

Zweitens geht Targeting auch auf die ganz alte Art: Ted Cruz hat doch diese seltsame Briefkampagne gemacht, wo Leuten offiziell aussehende Wahlaufforderungen zugestellt wurden, als Brief. Das sah aus, als ob dir der Staat sagt, du musst jetzt wählen gehen. Das war Targeting. Das ging nicht an alle, das ging an ein paar tausend Leute.

Was Targeting auch ist, dazu gibt es eine super schöne Channel 4 Doku, wie die Cambridge Analytica App für die Repulican Canvasser, also die Leute, die für Trump an den Türen geklingelt haben, super gute Informationen bereitstellt. Und das waren personalisierte Informationen, weil es in den USA ja da die Voter Rolls gibt, in denen man die Parteiaffinität an den Echtnamen koppeln kann und dann hängt man da alle anderen Datensätze, die man sich dazu kauft, dran.

Facebook spielt eine große Rolle und super wichtig, weil das ist sozusagen die Kalaschnikow des Targeting darstellt – das ist so die Standardwaffe. Aber es gibt auch ganz andere und viel feinere und granularere Methoden und auch viel größere. Axciom beispielsweise. Bei Data Brokern kann ich anrufen und kriege super viele Informationen... so wie, ich habe auch mal mit Theresia Enzensberger einen Artikel drüber gemacht, was man an Daten von Zeitlesern kaufen kann. Die Zeit verkauft ja ihre eigenen Leser in Datenform, das machen übrigens alle Zeitungen, auch die, für die ich arbeite, aus Werbegründen.

AS: Was ich mich so ein bisschen frage, ist, was zwischendrin passierte. Also, wir hatten den Artikel als großen Aufreger, dann war ein dreiviertel Jahr Ruhe und dann kam die Geschichte mit Chris Wylie im Guardian. Wie kommt es, dass zwischendrin eigentlich nichts so richtig passiert ist? Dass es keine Konsequenzen gab, außer die Debatte darum? Jetzt haben wir ja deutlich mehr Konsequenzen gesehen. Also es gab zumindest eine Anhörung von Zuckerberg in den beiden Kammern des US Senats.

HG: Also ich glaube, nach dem Gegenfeuer, was ich nach der ersten Euphorie in Deutschland für den Artikel bekommen habe,  mit dieser ungeheuer fehlerhaften Replik von meinen WDR Kollegen losgetreten, nach diesem Einschießen, bis hin zu einem Sascha Lobo, der sagt, das ist ein digitaler Mystizismus oder so was, ist der Artikel im deutschsprachigen Raum… diese Schlacht war sozusagen verloren. Die Leute hatten das Gefühl, ah ja, in der Zeit habe ich irgendwo gefunden, der Artikel sei eine Ente, ja, also das ist sehr beleidigend, ich habe den Typen noch nicht angeschrieben, aber irgendwann mache ich es noch... ist ja ein bekannter Wissenschaftsjournalist.

Mir ging es eigentlich darum, wie halte ich diese Geschichte am Leben? Und was ich gemacht habe, ist, mich hat irgendwann jemand angerufen und hat gesagt, Hannes, Hannes, in den USA geht das Teil gerade viral auf so einem Punker Blog und wenn man mich kennt, dann ist das besonders lustig, dass das auf einem Punker Blog viral geht. Aber das war ein total überzeugter Anarchist, der hat das Gefühl, die Wahrheit über Trump müsse raus. Währenddessen hat Cambridge Analytica die ganze Zeit wütend bei mir angerufen, wir sollen den Artikel runternehmen und wir sollen alles Mögliche ändern. In der Zeit habe ich ja mit Till Krause diese Artikel über Facebook Zensur raus gebracht.

Das war so eine Verteidigungssituation, als alle unsren Artikel angriffen, wo ich einer gegen irgendwie tausend war... und mein eigenes Unternehmen, da gibt es ja keinen Targeting Spezialisten, unter meinen Kollegen. Die konnten nicht plötzlich zehn Leute an Twitter setzen, die dann irgendwie den Artikel freikämpfen. Die haben gewackelt, die haben auch nicht gewusst, stimmt das jetzt vielleicht, wenn der Lobo das sagt? Und das heißt, ich musste eigentlich diesen Kampf alleine führen und ich habe gerade noch das durch gekriegt, dass sie den Artikel nicht gelöscht oder zurückgezogen haben... Also es war wirklich gefährlich für mich, ja. Und deswegen habe ich ganz schnell dafür gesorgt, dass es eine offizielle englische Übersetzung gibt, auf Motherboard, habe das sofort mit meinen amerikanischen Freunden geteilt und es gab dann auch sehr viele Reaktionen im englischsprachigen Raum.

Und währenddessen recht parallel ist ja Carole Cadwalladr vom Guardian, aus einer anderen Ecke kommend, über Google Search auch auf diese Firma SCL gestoßen. Unser Artikel kam raus, kurz bevor sie veröffentlicht hat und die ist dann da rein gegangen und ich habe auch relativ früh mit ihr telefoniert und habe ihr meinen Researcher Paul-Olivier gegeben als Zauberwaffe. Und Paul ist einfach ein super Typ, den man sehr gut auf bestimmte Tasks ansetzen kann. Ich habe ihm damals während unsrer Cambridge Analytica Recherche beispielsweise gesagt, finde doch bitte raus, was SCL in Norwegen für die NATO gemacht hat, an dieser Konferenz. Solche Sachen, der geht nämlich alle Twitter Dings durch und sucht alles raus. Das war im Prinzip eine Kooperation mit einem Datenjournalist oder so, für mich.

Und Carole und Paul haben weiter gearbeitet und man muss echt Paul-Olivier loben, er hat unglaublich viel Research als Grundlage geliefert, sodass Journalisten anfangen konnten, damit zu arbeiten. Und Carole Cadwalladr kommt eigentlich aus dem literarischen Schreiben, die hat Liebesbücher geschrieben, über Familienglück. Die hat sich als normaler Mensch angefangen zu interessieren, was ist da eigentlich los, in diesem Digitalzeug, hat sich  so ungeheuer rein gefunkt und hat eine Kampfbereitschaft entwickelt. Als ich die kennengelernt habe, hatte die an die 14.000 Twitter Follower, die hat jetzt irgendwie 140.000, wenn die irgendwas loslässt, dann gibt es irgendwie 1.500 begeisterte Leute, die es in alle Richtungen sofort verbreiten müssen. Und diese Frau, ja, das war das Schöne, wir hatten so eine Art dezentralisiertes, unabhängig arbeitendes Netzwerk von Leuten.

Das war nicht wie die Panama Papers, wo zehn Konzerne vereinbaren jetzt international zusammenzuarbeiten – also riesen Respekt davor, das ist super alles gemacht – aber bei uns war es viel mehr so eine ad hoc Situation, bei der ein paar komische Rebellentypen dann angefangen haben, weiter zu arbeiten. Ich würde sagen, ich habe es in der Breite losgetreten und Cadwalladr hat es durchgefochten. Und sie hat dann auch irgendwann die Entscheidung getroffen... ich wusste zum Beispiel von diesem Whistleblower seit, ich glaube im Juni 2017 oder so. Wir hatten auch Leute, die auf uns zugekommen sind, aber es waren Leute, die haben halt gesagt, „Hey, wir trauen uns nicht zu sprechen, die haben Blut an ihren Händen, wir können nicht, das ist zu gefährlich, ich habe Angst um mein Leben, ich habe Angst um mein Leben, wenn ich aussage“.

Und diese Situation war relativ ähnlich bei Caroles Whistleblower, der hatte große Sorgen und die haben sehr lange gebraucht, erstens um ihn zu beruhigen und zweitens um rechtliche Möglichkeiten zu finden, dass er nicht von denen sofort versenkt wird. Das sind juristisch erfahrene Leute. Das war eine richtige Schlacht, das ging sehr lange und ich war halt badly damaged – vor allem hier in Deutschland.

AS: Gab es so eine Art Wiedergutmachung? Also gab es Leute, die sich gemeldet haben und gesagt haben, jetzt ist es ja wieder da und es ist größer als es vorher ist?

HG: Nein, das ist nicht so wichtig. Also es ist ja schön, wenn ich ein Alleinstellungsmerkmal habe gegenüber denen. Und ist ja auch so in der Konkurrenz, die sehen halt, da ist ein Produkt besonders erfolgreich, der Artikel schlägt ein, was mache ich jetzt dagegen? Ich kann monatelang recherchieren. Es gibt nicht viele Leute wie mich auf der Welt im Reportagejournalismus, ich mache vier, fünf, vielleicht sechs Stücke im Jahr. „Das Magazin“ ist übrigens mein Arbeitgeber, aber ich schreibe nicht nur für die, es gibt die Nachveröffentlichungen dann im Guardian, das heißt, ich kann mich total in was vertiefen, manche Stories sterben auch total.

Diese Story war eine, die fast gestorben ist und dann müssen die armen Tagesjournalisten kommen, die sehen, dass da ein Produkt ist, das explodiert voll. Die „Zeit Online“ zum Beispiel, für die ich auch früher schon geschrieben hatte, die haben sich dann entschieden, dagegen zu gehen. Das war eine reine marktwirtschaftliche Entscheidung. Das geht so einfach so was, da ruft man drei Experten an, sagt ja, nein, das glaube ich alles nicht, klingt seltsam, ja und der sieht es anders. Ruft man noch mich an und ich sage dann, ich finde das alles richtig und dann kommt der Artikel raus am nächsten Tag. Und das ist ein reines marktwirtschaftliches Phänomen, das ist keine Verschwörung, das ist kein böser Wille und da muss es auch keine Entschuldigung dafür geben, das muss ich halt schlucken. Ich kann nicht nur der Edeljournalist sein, der irgendwie überall gestreichelt wird, sondern da habe ich halt jetzt richtig eine rein bekommen und ich muss mir halt überlegen, wie gehe ich damit in Zukunft um. Und was waren meine Fehler, was kann ich besser machen und so weiter.

AS: Apropos Fehler und besser machen: Lassen Sie uns mal ein bisschen auf Facebook gucken und was jetzt die Konsequenzen, die man aus den Datenskandalen ziehen kann, sind. Also Facebook gelobt zwar Besserung, aber das hat ja nichts Wahres. Müssten wir regulieren, müssten wir den Konzern spalten? Man kann natürlich für politische Werbung ähnliche Regularien auch für die Social Media Plattformen finden, wie man sie in anderen Medien bereits gefunden hat. Was ist aus Ihrer Sicht das Nächste, was passieren müsste?

HG: Ich finde eine zukünftige Welt, in der es wahnsinnig viele personalisierte Produkte und auch Informationen, die auf mich zugeschnitten sind, an sich wunderbar. Nicht im politischen Raum, wo wir die Aufgabe haben, über das Gemeinsame zu sprechen, weil das wird dadurch zerschossen, wenn alles personalisiert wird. Und wie kann man also eine personalisierte Welt hinkriegen, in der ich aber nicht unkontrolliert diesen neuen Kräften ausgesetzt bin? Ich glaube, dass das dann am ehesten möglich ist, wenn es nicht durch eine zentrale Bundeszentralbehörde für Kontrollsicherungsmaßnahmen im digitalen Raum erledigt wird und durch einen riesen Haufen schwieriger Gesetze.

Ich sehe die gute Intention, ja, aber das Problem ist… Ich habe früher in Unternehmen gearbeitet, habe im Mergers & Acquisition Bereich gearbeitet, in der Finanzindustrie. Die Unternehmen, die sich die meisten Anwälte leisten können, profitieren halt am meisten von schwierigen Regelwerken. Und da gewinnen nicht unbedingt die Kleinen. Wir haben eine sehr schnelle, bewegliche, digitale, innovative Welt, wir sehen sehr viel, was da auf uns zukommen kann, was gut ist. Wir können wir also eine dezentralisierte Kontrolle hinkriegen? Und vor allem in einem Kontext, in dem wir globale Player haben.

Als Beispiel: Als die USA sich aufgeregt hat, wegen dem San Bernardino Shooting wollte sie die dortigen Geheimdienste von Apple den Code geknackt haben vom iPhone eines der Täter. Da hat der Staat einem Unternehmen, das in seinem Land domiziliert ist, gesagt, „please comply“, wir haben hier einen Terrorismusfall, wir möchten wissen, mit wem der zusammenhängt. Und Apple hat sich geweigert. Da habe ich mir überlegt, was wäre eigentlich, wenn jetzt die USA Apple zerschlagen würde? So, wie die ihre Assets global verteilt haben, könnten die überhaupt zerschlagen werden von den USA? Könnten wir ein Unternehmen überhaupt noch so stark regulieren und zwingen, wie wir uns das gerne vorstellen?

Ich lebe ja in der Schweiz. In der Schweiz stellen wir uns das gar nicht so gerne vor, dass wir Unternehmen so auf die deutsche Art regulieren, weil wir glauben, dass wir zu klein sind und nicht so viel bewirken können. Das ist vielleicht manchmal auch eine Ausrede, aber deswegen glaube ich daran, dass es für den Einzelnen im Prinzip mehr Hoheit und Kontrolle, dass es mehr Datenhoheit für den Einzelnen geben muss. Und ich sehe, dass ein Teil der Gesetzgebung sich dazu hinbewegt, aber ich glaube, dass es auch technische Mittel geben muss, die uns ermöglichen, klar unsere Daten, die es ohne uns nicht geben würde, zu kontrollieren und über diese zu verfügen.

AS: Facebook hat angefangen, die ersten Dinge zu ändern. Zum Beispiel, dass man in den Privacy-Optionen einstellen kann, dass die Daten, die durch Apps, die Freunde nutzen, nicht an Dritte weitergegeben werden. Also Facebook ist dabei, viel zu überarbeiten. Das hat natürlich auch was mit der neuen EU-Datenschutzrichtlinie zu tun...

HG: Unter anderem, ja.

AS: Unter anderem...

HG: Also die EU ist schon groß genug, um was zu tun. Ich habe mich auch sehr gefreut über sehr viele Elemente der neuen Verordnung, die jetzt ja bald in Kraft tritt.

AS: Die Schwierigkeit ist ja trotzdem, dass sich die Öffentlichkeit weiter ausdifferenziert und wir von Öffentlichkeiten im Plural sprechen müssen. Für über 20% der Amerikaner ist Facebook die Hauptnachrichtenquelle. Man stellt sich ja selber seine Nachrichtennutzung dort zusammen. Im Grunde genommen ist ja nicht der Algorithmus schuld, was einem ausgespielt wird, sondern die Nutzer entscheiden ja, wem sie folgen. Aber sie folgen dort auch Seiten, die eben keine journalistischen Seiten sind.

Braucht es nicht irgendwelche anderen Ansätze, damit diese Personalisierung nicht weiter zunimmt und dann halt doch unsere Öffentlichkeiten aufspaltet? Es gibt ja immer Diskussionen darüber, dass weitere Algorithmen zugegeben werden können, dass es also eine Auswahl gibt für die Nutzer, um selber zu entscheiden, welcher Algorithmus den Newsfeed strukturiert. Muss es in die Richtung gehen? Weil dezentral ist ja schön und gut und eigene Einstellungen vorzunehmen auch, aber vielleicht ist ja erstens gar nicht jeder in der Lage, das zu durchdringen und zu verstehen, weil die Plattform das einem auch nicht sofort anbietet, sondern die Defaulteinstellungen viel Datennutzung erlauben.

HG: Also ich glaube Facebook kein Wort. Facebook hat mich so oft angelogen und Facebook hat es noch jedes Mal geschafft, in einer Krise eine Einstellung zu bringen und als Lösung anzubieten, die dem Unternehmen noch mehr Daten und noch mehr Eigentum und Souveränität über unsere Datensätze verschafft. Sich da jetzt auf den „good will“ von so einem Unternehmen zu verlassen, ist naiv. Ich habe meine Diplomarbeit über Drittparteizertifizierung geschrieben. Können Sie sich an diese komischen Fair Trade Labels und so Sozialzertifikate auf Produkten erinnern, wo man sich überlegt hat, was steckt denn wirklich in dem Produkt drin, wie wird es hergestellt?

Das ist diese Algorithm-Watch Sache jetzt, übertragen auf die digitale Welt. Aber an dem Facebook Algorithmus, arbeiten ein paar tausend Leute Tag und Nacht. Er wird ständig verändert. Wie viele tausend deutsche Bundesbeamte brauchen wir denn, um das alles zu kontrollieren und auch noch zu verstehen? Und können wir uns diese Leute überhaupt noch leisten, wenn Facebook denen schon so viel zahlen muss? Und es gibt nicht den einen Facebook Algorithmus, das sind Regressionsanalysen, Machine Learning, die irgendwie von A nach B führen. Das sind ständig laufende Prozesse.

Ich halte es für eine echte, ehrlich, also ich habe mit Katharina Nocun schon darüber diskutiert, aber sie glaubt, dass wenn man die Algorithmen beispielsweise von Facebook sehen könnte zumindest so ein paar Grundannahmen schon erkennbar wären. Aber ich halte das für eine Illusion, also dieses Algorithm-Watch, das funktioniert so nicht. Ich habe Korruption in Drittpartyzertifizierung aufgedeckt, dabei ging es darum, dass die dann halt sozusagen zum unüberwachten Überwacher geworden sind. Ich glaube wirklich, dass wir total am Anfang vom digitalen Zeitalter stehen.

Wir sind in einer Situation, wo wir wirklich sind wie Leibeigene von diesen Unternehmen. Die haben Informationen über unsere Gefühle, über unsere Gedanken und so weiter, die sie auf irgendwelchen Märkten hin und her verkaufen. Oder innerhalb von irgendwelchen Unternehmensteilen hin und her schieben und halt als Ware betrachten. Und da muss es eine ganz viel fundamentalere Lösung geben, glaube ich.

AS: Ist da nicht die richtige Antwort eigentlich, den Elon Musk zu machen und sich dazu zu entscheiden...

HG: Auf den Mars zu fliegen?

AS: Auf den Mars zu fliegen, den Hyperloop zu bauen und vor allem die Plattformen zu verlassen. Also er hatte ja relativ bald nachdem die neue Runde des Cambridge Analytica Skandals in der Welt war, seinen Account gelöscht. Er hat gesagt, nein, ich halte mich davon fern.

HG: Ja, erstens wissen wir nicht, wo die Daten jetzt sind, die er da gelassen hat. Zweitens, bei Elon Musk, das ist ein witziger Typ, der hat irre Ideen, aber ich weiß nicht, ob der die ganz großen Lösungen wirklich sieht. Und ich halte „Delete Facebook“ für eine Illusion. Ich benutze zum Beispiel nur Twitter als soziales Netzwerk... nein, ich benutze auch gelegentlich Instagram. Und Twitter ist für mich eine sehr nützliche Sache und ich sehe einen gefährlichen Deal und ich versuche, irgendwie damit umzugehen und ich weiß, ich kann es nicht. Aber trotz allem denke ich nicht, dass so komische digitale Eremiten so, ich wandere aus, züchte mir meine eigenen Karotten und jetzt bin ich halt raus, Ciao digitale Welt oder Ciao social media.

Hey, das Internet funktioniert so, dass halt Daten aufgenommen werden und die müssen hin und her fließen, damit es überhaupt geht, ob es jetzt Facebook ist oder irgendwas anderes. Die Frage ist, auf welcher technischen Grundlage fließt es so hin und her? Wie können wir das selber besser kontrollieren, so dass es unseren Präferenzen entspricht? Und das ist auch eine Präferenz, die bei Ihnen vielleicht ganz anders ist. Sie wollen vielleicht in einer Datengenossenschaft leben und mit Ihren Freunden und ein paar netten Unternehmen wollen Sie ihre Daten alle teilen. Und ich will vielleicht dieses und jenes überhaupt mit niemanden teilen und das andere will ich verkaufen. Weil wir werden eine Menge Jobs verlieren in Zukunft und ich frage mich wirklich, wo wird neues Einkommen entstehen und ich denke, dass das jetzt schon ein reales Einkommen ist, für sehr viele Unternehmen. Allerdings ist es ein Einkommen, das darauf basiert, dass ich selbst die Daten-Quelle bin und halt nur eine Benutzeroberfläche als Lohn dafür abbekomme.

AS: Da sagen wir mal liebevoll fünf Euro ins Phrasenschwein, weil wir den Satz sagen Daten sind das Öl des 21. Jahrhunderts.

HG: Für einen Ökonom sind Daten das Öl und ich weiß, dass für einen Psychometriker, wie Michal Kosinski, wären Daten ein Abbild deiner Persönlichkeitsgrundlage. Diese Phrase, „Daten sind das Öl des 21. Jahrhunderts“, ist eben nicht komplett falsch, weil aus einer Sicht von Verwertung und Refinery, aus so einem industriellen Verwertungsprozess heraus macht es sehr wohl Sinn. Also es gibt andere Eigenschaften wie Kopierbarkeit, aber die hängen auch vom technischen System ab. In einem Blockchain System zum Beispiel haben wir keine einfache Kopierbarkeit. Und ich predige jetzt überhaupt nicht Blockchain sei die Lösung für alles, aber es ist nicht so, dass es ein natürliches Phänomen ist, dass Daten zum Beispiel einfach kopierbar sein müssen, das haben wir so geschaffen.

Und dieses Argument, dass wir deswegen sogenannte „Commons“ haben können und jetzt der große Sozialismus wahr wird, weil wir alles kopieren und teilen können, das esse ich nicht so einfach, weil sich ja gezeigt hat, was mit dem Teilen eigentlich passiert: dass ein paar Schlaue die Daten einfach einsammeln und für ihre Zwecke nutzen, ohne dass wir was davon mitbekommen. Und Cambridge Analytica ist ein Beispiel dafür.

AS: Die verantwortlichen Leute sind ja trotzdem weiter unterwegs, sind auch geschäftlich unterwegs, haben jetzt was neues gegründet. Cambridge Analytica hat ja jetzt Insolvenz angemeldet. Werden wir damit weiter was zu tun haben? Was ist 2021?

HG: Genau. Ich komme ja aus Zürich, da gründet man hauptsächlich Schachtelfirmen und das ist... also Alexander Nix, da findet man bis hin zu den Panama Papers findet man irgendwelche Ablegerchen, die da irgendwo gegründet haben. Das ist ein reines Konstrukt, Cambridge Analytica ist ein Firmenname, der wurde in Delaware unter ein paar anderen Variationen gegründet und den Laden zuzumachen ist einfach eine Haftungsfrage. Wenn man dieses Unternehmen jetzt einstellt, dann wird es halt schwer, für die Strafverfolgungsbehörden in England. An wen sollen die denn jetzt Briefe richten, vor allem, wenn es noch gar keine richtige Strafverfolgung, sondern eine Voruntersuchung ist und so weiter. Also die haben ein schwieriges enforcement, limited liability, das heißt, die Leute sind eventuell persönlich nicht haftbar oder nur für gewisse Sachen.

Und wir haben ja alle mitbekommen, Emerdata (LINK) ein anderes Konstrukt von den ähnlichen Leuten, wieder mit amerikanischer Beteiligung der Mercer Familie begründet und vor allem Cambridge Analytica, wie gesagt, sind nicht die einzigen. Es gibt viele andere Firmen, Palantir, die jetzt in Frankfurt der Polizei für einen symbolischen Euro ihre Analytics bereitgestellt haben. Palantir, begründet von Peter Thiel, der Donald Trump's bester Tech Buddy ist. Also, wie naiv muss man denn eigentlich noch sein? Während die eine Seite sozusagen feingeistig diskutiert, was wir denn für Regularien machen könnten, sind die anderen voll am Durchziehen. Weil die wissen auch, lange lässt sich das Volk jetzt nicht mehr so ruhig halten mit dem ganzen Zeug.

Mit Cambridge Analytica ist die Masse nervös geworden. Bei mir auf der Straße treffe ich plötzlich Leute, aber wirklich irgendwelche Typen, die dann so reden, uh guck' mal hier in der Zeitung schon wieder Cambridge Analytica, der Zuckerberg ist ja echt komisch. Wir sind jetzt an so einem Punkt, wo wir merken, so wie damals, es gibt ja Klimaerwärmung oder oh, Rauchen macht Krebs, oder Harrisburg, Radioaktivität… so weit ist es jetzt. Und das erkennen die anderen und deswegen gehen sie ganz schnell vorwärts. Deswegen gibt es ganz schnell Partnerschaft mit Palantir und deswegen ist jetzt hier auch Zeitdruck, Handlungsbedarf, sehe ich zumindest.

AS: Auf jeden Fall. Nutzen wir die Gelegenheit, um das Panel mal zu öffnen und Ihre Fragen hier mit in die Runde rein zu nehmen. Wollen Sie starten?

Teilnehmer: Eigentlich geht es mir um Gesundheitsdaten, die unbedingt sicher sein müssen, damit sie auch genutzt werden können. Das ist der Grund weswegen ich mich mit der Datensicherheit als solche befasse.

HG: Ja.

Teilnehmer: Ich vertrete die These, dass wir überhaupt keine Patientenakten oder Gesundheitsakten einführen dürfen, es sei denn, gut verschlüsselt. Ist das aber überhaupt denkbar, angesichts der Tatsache, dass eben die Software, so wie sie momentan im Markt ist und die Hardware, so wie sie im Markt ist, eigentlich nicht darauf angelegt ist, sicher zu sein. Deswegen zwei Fragen: Erstens, halten Sie es für sinnvoll, dass es dieses Konzept der europäischen digitalen Grundrechtscarta gibt? Oder das vorgegeben werden könnte, dass, wer im europäischen Markt arbeitet, eben eine nicht so löchrige, so käsige Standard Hardware liefert. Das ist eine Forderung, die von...

HG: Also ganz kurz, wenn ich Sie... wenn ich das ein bisschen verkürzen darf, weil es gibt ja auch noch andere, aber Ihre Idee ist, das man sozusagen so eine digitale Grundrechtscarta formuliert und die wiederum die Hard- und Softwarehersteller in die Pflicht nimmt, gewisse Voraussetzungen zu erstellen.

Teilnehmer: Richtig. So, dass wir jedenfalls Hardware und Software bekommen, die standardisiert ist. Und ich denke, das müsste eigentlich möglich sein und dann müsste Europa da investieren, Punkt eins. Und zweitens, in welchem Maße kann man eventuell auch sagen, Facebook ist in Europa nur zugänglich, wenn es hier eine Tochter hat, bei der wir als Europäer 51% haben. Dann dürften die hier alle möglichen Vorteile hier haben, aber sie sind dann jedenfalls dem europäischen Recht unterworfen und ein EUGH, ist vielleicht etwas aufmerksamer.

HG: Okay. Ich kann nicht kompetent sagen, ob diese erste Idee von der europäischen Grundrechtscarta, ob man da denn wirklich die Hersteller in die Pflicht nimmt und ob das das Problem lösen würde. Was wir aber natürlich haben, ist, dass wir gewisse Produktvorschriften haben, was in der EU zulässig ist und was nicht. Und dass man ein paar davon ableiten könnte, aus gewissen irgendwie technischen Voraussetzungen, die erfüllt sein müssen, damit Datensicherheit wahrscheinlich wird, kann ich mir schon vorstellen. Aber ob das sozusagen die Lösung ist? Ich denke, sowieso auch, dass Dateneigentum an sich, nicht die einzig wahre Lösung darstellt. Ich glaube, die Realität ist relativ messy und es werden viele Lösungen gleichzeitig versucht werden und iterativ erarbeitet werden.

Und zum zweiten Punkt: Teilverstaatlichung lehne ich total ab. Ich habe in der Schweiz was anderes vorgeschlagen. Ich habe gesagt, wir sollten unseren öffentlich rechtlichen Rundfunk, der eh schon staatlich ist, in ein soziales Netzwerk umwandeln und zwar nur für News. Sind Sie schon mal in Zürich am Flughafen gelandet?

Teilnehmer: Ja.

HG: Wie sich das anfühlt, wenn alles so ganz sauber ist und funktioniert... stellen Sie sich mal vor, Sie hätten ein soziales Netzwerk, in dem Sie wissen, dass die News, die dort zirkulieren, gewissen Qualitätskriterien entsprechen. Und dass ich, wenn ich mich mit meinen Freunden emotional austauschen möchte – weil ich halte Facebook für ein emotionales Netzwerk, da geht es um Leid und Spaß und das ist historisch gegründet für Girls und Freunde und solche Sachen. Das ist gar kein Informationsnetzwerk und hat sich für Informationen als total fehlerhaft erwiesen. Sie (Anm.: Alexander Sängerlaub) haben das in Ihrer Fake News Studie ja angefangen zu untersuchen.

Und deswegen stellen wir uns mal vor, ein Öffentlich Rechtliches Netzwerk würde nicht mehr so viele eigene Beiträge produzieren, sondern vielleicht mehr so eine Art Qualitätskontrolle und für jeden eine Netzwerknote geben und ein Profil, wo man halt sharen kann. Und man würde sehen, wie bei meinen blöden Zertifikaten, die ich früher untersucht habe, als Student, man würde sehen, was sozusagen der Content ist. Wenn man Quellen zitiert, die bekannt sind, wird auf andere existierende Artikel verwiesen. Einfach wie das durch so einen technischen Screener durchlaufen zu lassen.

Teilnehmer 2: Ja. Schönen guten Tag, ich arbeite seit vielen Jahren im AI Bereich. Das was wir heute als AI bezeichnen, ist gar keine AI. Das ist der Beginn der AI. Das ist noch nicht disruptive. Aber was mich in der Diskussion ein bisschen störte: Wir fokussieren uns auf Facebook und Google taucht ab...

HG: Nein, nein, die tauchen nicht nur ab, sondern die haben...

Teilnehmer 2: … wissen ja nicht, was da passiert. Ich bin jetzt nicht auf conspiracy aus...

HG: Nein, nein.

Teilnehmer 2: … aber das ist viel interessanter. Weil diese Algorithmen, das sind besser... ich spreche nicht von deep mind, sondern von den anderen. Und die sind... das System läuft auch so ab, dass da zwar tausende dran arbeiten, aber das Know How wird immer separiert, das heißt, es gibt so ein bisschen die, wie bei Coca Cola, sage ich mal, mit dem Rezept, nur fünf, sechs Leute, die wirklich Zugang zu dem Maß haben.

HG: Okay und Ihre Frage?

Teilnehmer 2: Meine Frage ist im Grunde genommen, ja, wann gibt es den ersten Leak bei Google?

HG: Ich habe lange gewartet bis es mit Facebook geklappt hat, also... aber die haben trotzdem, bei denen steht der Hack auf dem Marktplatz und sie... ich dachte, die gute Tradition wäre, wenn man mal böse gehacked ist, dann ruft man den Hacker an und bietet ihm an, ihn einzustellen. Aber als ich deren komische Löschmanuskripte da bekommen habe, was ja schon ein schöner Hack ist eigentlich, haben sie mich nicht angerufen. Ich bin immer noch sehr beleidigt. Bei Google wird es auch kommen.

Teilnehmer 3: Zum Punkt... ich bin sehr beeindruckt, Sie so zu erleben. Zum Punkt Regulierung, also jeder Programmierer weiß, dass ich tatsächlich nicht die Patientendaten dadurch reguliere, dass ich ein Krankenhausinformationssystem irgendwie mache, weil die GKV hat ja eigentlich alle Daten, hat Abrechnungsdaten und das ist... ich kann mehr oder weniger als Arzt sehr wohl mit einer Inferenzmaschine sehr viele Rückschlüsse machen. Trotz alledem glaube ich, dass es zur Regulierung keine echte Alternative gibt.

So wie ich als Arzt nicht die Leute klonen kann mit vier Köpfen und zwei Beinen und drei Prostata, muss ich irgendwo eine rote Linie ziehen und sagen, okay, das geht und das geht nicht. Das ist ein Maßnahmenpaket, aber sowohl im Sozialgesetzbuch als auch im anderen, muss es eine Möglichkeit geben, rote Linien zu ziehen, wohlweislich, dass ich den Fortschritt nicht völlig unterdrücken kann, aber das tue ich in der Medizin auch nicht und verbiete trotzdem zu klonen. Was halten Sie davon?

HG: Ja, natürlich, also ich bin so ein bisschen so ein klassischer Ordoliberaler, das tut mir leid, das in Deutschland zu sagen. Und natürlich innerhalb eine gewissen Rahmens, da gibt es Grenzen des Marktes: ich kann beispielsweise meine Kinder nicht verkaufen. Man hat dazu den laufenden demokratischen Prozess, wo man entscheidet, was sind diese Grenzen. In der Schweiz gibt es den Herrn Ernst Hafen, ehemaliger ETH Zürich Präsident, der so eine Datenkollektive gründen will, das ist der Hintergrund für eine Anfrage, Midata heißen die, das können Sie sich mal angucken. Der Herr Hafen will auch immer gerne, dass ich da mit mache, zumindest eine Zeitlang. Aber ich habe ihm immer gesagt, nein, man kann nicht einfach so eine Genossenschaft gründen, ohne Dateneigentum vorher begründet zu haben.  

Wenn du eine WG gründen willst, ja, dann muss jemand irgendwie den Mietvertrag haben, es muss Eigentum geben, damit du dein Eigentum zusammenwerfen kannst. Wenn wir eine große Community gründen wollen, von lauter netten Hippies, muss jeder was mitbringen, was er hat und das wollte er nicht so gerne akzeptieren. So, diese Genossenschaftsidee klingt sehr nett, aber ich habe das Gefühl, so auch nur auf den ersten Blick und auf den zweiten Blick ist... was sind eigentlich Gesundheitsdaten? Weil Google arbeitet ja an „23 and me“, das sind reine Gesundheitsdaten, aber wir wissen über die Arbeit von diesem israelisch-amerikanischen Forscher, Yaniv Erlich, ein sehr guter Researcher, der halt gezeigt hat, wie man sozusagen die Google Suchdaten korrelieren kann mit genetischen Traits.

Und so verfließt die Grenze zwischen denen, was sind Gesundheitsdaten und das wird in unserer Reportage eigentlich auch schon aufgegriffen, der Kosinski hat ja hergestellt, wir man aus irgendwelchen abstrusen Datensätzen Rückschlüsse auf die Persönlichkeit ziehen kann und das ist ein laufenden Forschungsfeld. Das heißt, man kann diese Trennung auch nicht mehr machen, zwischen sensiblen Daten und nicht-sensiblen Daten. Und deswegen sage ich immer, wir brauchen eine fundamentalere Antwort.

Teilnehmer 3: Da gibt es aber einen wichtigen Punkt in der EU Datengrundverordnung.

HG: Ja.

Teilnehmer 3: Die Verkopplung von unterschiedlichen Datenquellen, ist strikt verboten. Es sei dann, ich erlaube das. Und ähnlich ist es auch bei dem, was momentan das Hanno Plattner Institut auch vorbereitet. Dass die, da bin ich auf meinem Konto der Daten nicht Besitzer, aber der souveräne Entscheider, wer diese Daten nutzen darf und wenn mein Konto mit anderen verbunden werden darf, dann kann ich aus der Fülle der vielen Daten anderer, die nicht Genossenschaftler sind, aus der Kopplung auch Erkenntnisse darüber sammeln, ob dieser oder jener Arzt eigentlich immer Unfug macht, oder...

Teilnehmer 4: Ich habe eine Frage zur Rolle von Facebook in dem AC Skandal, den Sie ja jetzt so schön auch vor allem in dem Artikel, den ich damals mit Begeisterung gelesen habe, geschildert haben. Zunächst mal Sachverhaltskorrektur (Anm.: An Teilnehmer 1), Facebook wird für alle europäischen Nutzer von der Facebook Unlimited betrieben, das ist eine europäische Gesellschaft.

Sie hatten so ein bisschen die Darstellung gehabt, die haben so kollosiv zusammengewirkt, um dem Trump zu helfen. Facebook stellt das ja ganz anders dar, die sagen, sie sind das Opfer. Und ich glaube, man muss folgendes glaube ich wirklich voneinander trennen: Es gibt diese großen Social Media-Plattformen, die in der Tat ihre User sehr gut kennen und von daher perfekte Werbeagenturen sind, die können wie kein anderer die Werbung an den potenziell kaufwilligen Empfänger senden, das ist völlig klar, das macht die Stärke dieser Social Media Plattformen als Werbeagenturen aus. Aber diejenigen, die wie jetzt Herr Kogan mit seinem Quiz die Leute aussaugen, verleiten zu bestimmten Profilen individuelle Aussagen zu machen, das sind ganz andere Firmen. Sie haben ein paar erwähnt, Axio, Palantir, I360, das sind ja Firmen, die sozusagen zu den Werbetreibenden gehen und sagen: Wir finden für euch raus, wie euer typischer Käufer aussieht, wir machen die Psychoprofile, die entwerfen das potenzielle Ziel der Werbung. Ja, die nutzen die Infrastruktur, die social media geschaffen hat, die das Target zum Ziel bringen.

Aber sozusagen dieses Profiling, die dahinter stehen, das sind Firmen, die weitgehend im Unbekannten wirken oder jedenfalls nicht ganz im Licht der Öffentlichkeit stehen und die sehr häufig auch durch Venture Capital von Regierungen angeschoben worden sind, weil nämlich, ich sage jetzt mal cyber war, Informationskrieg basiert auf der Kenntnis, dass liberale Demokratien durch Missinformation am anfälligsten sind. Und dass wirkt umso mehr, je entpolitisierter die Gesellschaft insgesamt ist, die haben wir auch meiner Meinung nach in Deutschland seit 1984, seit wir Privatfernsehen haben. Die Leute wollen immer nur noch auf Action, Skandal und so weiter. Die Frage ist, ob Sie das teilen? Ob Sie Facebook als Mittäter oder als Opfer von der CA sehen, dass eigentlich nicht nur die Infrastruktur missbraucht wurde, um diesen Plan zu verwirklichen, mit Kogan die Leute so richtig auszuhören und horchen und dann für Trump weiter...

HG: Ach so, ja. Nein, also welche Schuld trägt der Söldner? Also das sind kaufbare Akteure, das sind Marktpartner. Selbst Cambridge Analytica, als ich mit denen telefoniert habe, habe ich sie gefragt: Ja, wieso arbeitet ihr in der Politik? Ja, das ist gute Werbung für die Privatkunden, die wir anwerben wollen. Politik hat hohe Visibilität. Und da habe ich gesagt, würdet ihr für jeden arbeiten? Ja, klar. Ist halt gerade so gewesen, dass im republikanischen Bereich weniger Firmen aktiv gewesen sind und sie da eine Marktlücke gesehen haben und das heißt, ich sehe da überhaupt keine Verschwörung von Zuckerberg, Trump ins Amt zu heben... die wollten vielleicht echt das Gegenteil.

Aber die Sache ist halt, es gibt ja das Moment von Fahrlässigkeit und deswegen sehe ich da schon durchaus einen gewissen Grad von Schuldhaftigkeit, also wer so fahrlässig handelt und solche Sachen zulässt, dass man einem Netzwerk von Firmen ermöglicht, Daten abzugreifen…

Man braucht halt auch ein veritables Enforcementsystem. Wenn man sagt, ich mache Regeln und die Regeln gelten wirklich, aber wir haben übrigens gar kein Enforcement, Leute. Sind diese Regeln dann glaubwürdig?

Teilnehmer 5: Ich bin Kommunikationswissenschaftler. Mir fehlt immer noch ein bisschen das Verständnis dafür, wie es gelungen sein kann, im Wahlkampf auf Grundlage von Algorithmen die Wähler so dermaßen zu entmündigen, dass sie dann irgendwas Bestimmtes wählen. Was kann Cambridge Analytica herausgefunden haben, um entweder Leute, die was anderes wählen wollten, dann Trump wählen zu lassen oder die sowieso Trump wählen wollten und es dann gemacht haben? Ich stelle mir das so vor: Okay, jemand der Gewerkschaftsseiten liked, der wählt dann eher Links und wer die NRA-Seiten liked, der wählt dann eher Rechts.

Und was mich noch interessieren würde, wenn ich das gerade richtig verstanden habe, haben Sie gesagt, dass der gesamte deutsche Journalismus aus marktwirtschaftlichen Gründen dazu entschlossen hat, Ihre Geschichte zu torpedieren, habe ich das so richtig verstanden?

HG: Naja das ist eine Erklärung. Also erst mal für den deutschen Journalismus und die Kritik, das ist halt eine marktwirtschaftliche Erklärung für einen Grund, warum man loslegt. Also Redaktionen arbeiten so, dass sie auch viel Visibilität haben, weil sie merken, da ist ein Thema beliebt, und sich fragen: Was machen wir jetzt zu dem Thema? Also aus der „Zeit Online“ weiß ich, dass die eine Art Sitzung gehabt haben, wie bei einem Ereignis, beispielsweise ein Vulkanausbruch in Italien. Und dann entscheidet halt die Redaktion, was sie dazu macht. Zum Beispiel haben ja viele Blätter geschrieben, sie hätten nie beim Brexit mitgewirkt. Das war so ein veritables Argument im deutschen Diskurs.

Das war nicht einfach und auf den ersten Blick zu finden, dass die da Videos produziert haben. Man hätte es relativ schnell finden können, aber ich habe dafür auch eine Weile gebraucht und das heißt, das Gegenprodukt zu erstellen, man hat dann halt sozusagen schnell das „debunkt“ und sagt ah ja, das ist alles falsch daran. Das ist halt eine einfachere Option, daher ist der Anreiz innerhalb marktwirtschaftlicher Strukturen gegeben, gegen Artikel mit so komplexen Recherchen zu schreiben. Daneben gab es auch sicher noch psychologische Gründe, vielleicht auch stilistische. Ich habe ja gesagt, wir schreiben in diesem literarischen Langformstil, der verzichtet auf die Nennung von Quellen. So wie zum Beispiel der Economist. Beim Economist lesen Sie und weil der Economist eine 180-jährige Tradition oder so was hat, glauben Sie ihm, weil sie immer geliefert haben und immer auch Korrekturen liefern wenn was falsch läuft.

Bei „Das Magazin“ wussten halt viele Deutsche nicht, dass das eine über 40 Jahre alte Schweizer Institution ist, die in der Schweiz den Ruf wie von einem „SZ Magazin“ oder „Zeit Magazin“ genießt. Das kann man angreifen, aber das ist nicht einfach so ein Blatt, das einfach was dahin schreibt. Wir haben eine Dokumentarabteilung und so weiter. Das heißt, es gab noch eine andere Ebene von Angreifbarkeit, die ich sehe und sicher andere Argumente. Wie gesagt, das ist ein Grund, den ich selber sehe und aus meiner Berufspraxis und Erfahrung kenne.

Zu der Frage, ob ich jetzt glaube, dass sozusagen Cambridge Analytica so Psychobomben schießt und dann werden plötzlich Leute völlig brainwashed. Ich halte es für eine Ablenkungsdiskussion. Ich habe es vorhin schon gesagt, ich glaube nicht an Manipulation.

Ich glaube, diese Firma hat sich gezielt Leute angeguckt, die gewisse Tendenzen haben, die haben versucht zu erkennen, wer ist zum Beispiel ein Wechselwähler, wer ist ein Gelegenheitswähler und wer schwankt zwischen welchen Bereichen und hat versucht den gezielt mit einer auf diese Person zugeschnittenen Nachricht zu aktivieren beziehungsweise zu deaktivieren. Und weil das eben so eine neue Granularität entfaltet und weil man da auch Gruppeneffekte entfalten kann – wenn ich zum Beispiel weiß, ich kann dem ganzen Raum, der hier ist, auf seinem Facebook-Account was zuschalten, Blogs oder so etwas oder zur Mittagszeit sende ich allen Leuten in einem gewissen Stadtviertel eine gewisse Information – dann gibt es einen Gruppeneffekt zwischen diesen Leute, da ist überhaupt keine Zauberei und kein Brainwashing.

Ich glaube nicht, dass Brainwashing da aktiv wird. Die Wirksamkeit haben wir in unserem Artikel anhand der einzigen für uns zur Verfügung stehenden Studie überhaupt, die auch noch aus Kosinskis Umfeld kam, versucht abzuhandeln.  Das war das Beste, was wir tun konnten. Und bis heute gibt es ein, zwei, drei, es gibt nicht mal eine Handvoll von Wirksamkeitsstudien für psychometrisches Targeting. Und das finde ich wichtig, dass man das untersucht, ich glaube die Wirksamkeit wird zunehmen, aber ich glaube nicht an Brainwashing. 1955 kam Vance Packards Tiefenpsychologie raus. Alle Leute haben damals gedacht, dass wir jetzt gebrainwashed werden von Supermärkten, Farbsets die mich da hormonell beeinflussen und so. Ja, es gibt diese Zusammenhänge und es gibt vielleicht auch eine Phase, wo wir relativ blind sind für manchen Sachen, die mit uns gemacht werden. Und dann gibt es Bewusstwerdung und dazu tragen vielleicht auch solche Artikel bei (wie unsrer zu Adtargeting), dass man jetzt halt mehr darüber nachdenkt und genauer hinguckt, was man sieht und eine andere Distanz entfaltet zu Facebook. Das ist meine Meinung, ich glaube nicht an Brainwashing in dem Zusammenhang.

AS: Da vielleicht eine kurze Ergänzung aus der Medienwirkungsforschung, das ist auch mein Schwerpunkt. In den 1950ern hatten wir diese horrende Medienwirkungsannahmen, dass man irgendwie vor dem Fernseher sitzt, die Joghurtwerbung sieht und losrennt um Joghurt zu kaufen. Heute sind wir auf einer ganz anderen Ebene, dass wir sagen, Medien bestimmen vielleicht noch die Themen, über die wir reden, können uns aktivieren und mobilisieren, dann hört es aber irgendwann auch schon auf. Und wir wissen ja aus der Psychologie, dass Einstellungswandel extrem schwierig zu bewerkstelligen ist.

HG: Aber Aktivierung eben ist eine Sache, die möglich ist.

AS: Da gibt es auch tatsächlich Facebook-Studien zu diesem Wahlbutton, dass wenn Leute sehen, so und so viele meiner Freunde haben gewählt oder waren schon bei der Wahl am Tag der Wahl, dann gehen vielleicht Leute noch wählen, die vorher nicht wählen gegangen wären. Also es gibt Medieneffekte, aber sie sind viel, viel kleiner, als man gemeinhin in der Medienöffentlichkeit vermutet. In der Fake News-Diskussion ist es ähnlich, dass wir sehr starke Medienwirksamkeitsannahmen haben, die so nicht nachzuweisen sind.

Teilnehmer 6: Sie hatten ja vorhin gesagt, dass Sie Personalisierung gut finden. Also ich glaube das persönlich nicht, weil Personalisierung so lange eine Waffe ist, bis man sich bewusst wird, dass es eine Entmündigung ist. Eine Vorauswahl wurde ja schon getroffen und wir kriegen ja nur die Restergebnisse. Jedes Unternehmen entscheidet ja, was du zu sehen hast und was nicht. Es wurde ja schon eine Vorauswahl getroffen. Und da fehlt mir jetzt vielleicht als Anregung ein Aspekt Aufklärung, weil das für viele Leute abstrakt ist.

Viele verstehen auch gar nicht richtig die Nutzung oder die Auswirkung von Facebook und so weiter. Gefüge, wie vorhin auch angesprochen wurden, es ist eine Blackbox, genau wie bei Google oder jetzt auch Palantir. Wenn man das richtig verstehen würde, in vollen Auswirkungen, würde man ja diese Produkte gar nicht nutzen. Also deswegen handeln ja viele im Verborgenen, wie zum Beispiel Palantir. Verlage generieren ja mehr Einnahmen mit Werbung, als mit den eigentlichen Zeitungsartikeln, das ist ja völlig verschroben.

HG: Also ich habe gesagt, dass ich Personalisierung gut finde im Produktbereich. Zum Beispiel, wenn Sie plötzlich eine passende Hose bekommen, das ist halt auf der Basis von Ihren Daten personalisiert. Das ist im politischen Bereich heikel, finde ich. Im Informationsbereich wird die Personalisierungsmöglichkeit, die sehr viel Nutzen hat, gleichzeitig einen Bedarf erzeugen nach einer Art gemeinsamen Oberfläche, die wir alle sehen und dazu ein komplementäres Produkt, das mich personalisiert beliefert. Und beides wird notwendig sein und ein Thema, das die Medien gerade erst erkennen, ist der Bereich von Information Security. Also sicherzustellen, dass das, was ich sehe, dass das irgendwie auch wirklich das ist, was der Absender losgeschickt hat, dass es diesen Absender gibt, dass es nicht zwischenzeitlich verfälscht wird und so weiter.

Zu dem Gesundheitssystem übrigens fällt mir noch ein, dass die Estonen ja zum Beispiel dieses Modell bauen oder gebaut haben, das technische und nicht rein regulatorische Ebenen hat, wie man das bearbeiten kann. Das kann man sich angucken, den Fall Estland und Gesundheitsdaten, wie die transferiert werden.

Und zu der großen Palantir-Story: So wie das als Journalist funktioniert, ist nicht, dass man da hingeht und sagt, hey Palantir, lass mich mal deine Algorithmen angucken. Entweder kriegt man irgendwie Dokumente darüber oder man kennt jemanden und Palantir steht gerade ganz oben auf der Traum- und Wunschliste von ganz vielen Kolleginnen und Kollegen von mir und irgendeiner wird schon was tolles zu Tage fördern. Und ob das jetzt eine große Bildzeitungsverschwörung ist, ich bin da immer so ein bisschen kalt. Also wer ist da jetzt drin, interessant, achten wir mal darauf, was er tut, will ich sehen, will ich viel darüber hören und möglichst viel Transparenz. Zum Beispiel hat Peter Thiel ja in Österreich seinen Mann geheiratet. Österreich, FPÖ-Land und so, da könnte man ja jetzt auch anfangen irgendwie Verschwörungstheorien herzustellen. Vielleicht macht es Sinn, vielleicht gibt es da wirklich eine Connection, vielleicht finanziert er was, vielleicht auch nicht. Aber fände ich interessant mal nachzugucken, habe ich auch noch nicht gelesen im deutschsprachigen Raum.

Teilnehmer 7: Ich habe da ein Startup im Datenschutzbereich, das ist daher alles sehr bekannt. Mein Problem mit der ganzen Diskussion ist ein bisschen, das sehe ich in meiner eigenen Arbeit…erstens Leute geben immer Daten von sich her, wenn sie einen Anreiz haben, genauso funktioniert Facebook und Google und alles andere, und zweitens, das ist eigentlich das, was für mich aus der Arbeit hervorgeht und ich habe auch mit psychometrischer Profilbildung auf Datenbasis gearbeitet. Sagen wir mal, ich gebe drei Likes her und daraus erschließen sich ja sehr, sehr viele andere Kriterien. Ich glaube, das ist eigentlich das große Problem: Wir geben unsere Daten freiwillig her und wir wissen nicht, dass das, was wir hergeben noch zu vielen anderen Schlussfolgerungen führt. Und nachher gehen wir auf Facebook und denken, dass das, was wir da sehen, irgendwie objektive Wahrheiten sind, statt zugeschnittenes. Meine Frage ist, ist nicht die einzige Lösung die wir haben, Bildung? Die Leute müssen einfach gebildet werden, damit sie wissen, ich gehe online, ich lese einen Artikel auf Twitter oder auf Google oder auf Facebook und das ist grundsätzlich erst mal personalisiert. Und das kann ich auch nicht verhindern dadurch, dass ich ein Netzwerk anbiete, das irgendwie kontrolliert ist, weil ich werde immer meinen weltweiten Stammtisch haben, von irgendwelchen Leuten, die irgendeinen rassistischen oder sexistischen Quatsch raushauen.

HG: Also es ist sicher nicht die einzige Lösung, aber das ist halt das alte Argument der Medienkompetenz und ich glaube, ich würde nicht im Journalismus arbeiten, über solche Sachen schreiben, wenn ich glaube, dass es unnütz wäre, dass Leute das lesen und dass es sie voranbringt. Das ist ganz klar eine große Motivation für mich. Ich glaube nicht, dass es die einzige Lösung gibt. Wir haben vorhin gesagt, es muss irgendwelche Grenzlinien geben, die gezogen werden innerhalb… Und ich sage dann, dass es eine Art Datenmarkt geben sollte, an dem nicht nur die Unternehmen teilhaben dürfen, sondern auch wir selber. Und für mich ist das sozusagen die Dreiheit. Also ein ständiger laufender Prozess der Fortbildung des Einzelnen und der gesellschaftlichen Diskussion, ein gewisser Rahmen von Vorschriften an Transparenz, was darf im Produkt drin sein. Ich meine, wir sind Infovoren, hat ja mal der gute alte, wie hieß er nochmal unser FAZ-Technologie…

AS: Schirrmacher.

HG: Schirrmacher, ja genau, sehr ist er vermisst. Der hat geschrieben wir sind Infovoren und auf eine Art stimmt es auch. Wir konsumieren halt ganz viel Informationen und da darf irgendwie jeder Schrott so drin sein und man darf so alles oder auch nicht, oder gibt es halt doch Hassrede oder nicht. Und ja, es gibt Sachen die da verboten sind. Es gibt eine gewisse Grenzlinie, was die Inhalte und auch den Grad der Aktion angeht und es muss aber einen individuellen Grad an Autonomie und an Hoheit geben, den wir bisher nicht haben. Und ich sage es nochmal, Tim Berners-Lee spricht zu uns noch im Fernsehen, das ist Begründer des WWW. Der Typ, der am Cern – natürlich in der Schweiz – das alles losgetreten hat. Und ihr kennt auch das Internet-Manifest von Steve Perry Barlow, das war ja in Davos, als Gegenrede zu Clinton. Ja ich glaube, wir müssen verstehen, dass wir am Anfang sind mit dem Internet. Wir sind ja nicht in der entweder digitalen oder materiellen Welt, das verschmilzt ja. So wie ich vorhin gesagt habe, unsere Gen-Daten und unsere Verhaltensmusterinformationen oder so – die spielen auf derselben Ebene.

Wir befinden uns bald in einer Umgebung, die komplett sensorisiert ist. Das heißt, wir befinden uns in intelligenten Umgebungen und diese Unternehmen, die wir sehen, sind nur der Anfang. Wir müssen unbedingt eine allgemeingültigere und grundlegendere Haltung entwickeln, was persönliche Freiheit und Autonomie im digitalisierten Zeitalter angeht. Da führt absolut kein Weg daran vorbei, deswegen finde ich das auch so wunderbar, dass Sie mich eingeladen haben, vielen Dank! Ich finde, in Deutschland wird auch eine ganz tolle Diskussion darüber geführt. Man darf bloß nicht jetzt orthodox werden und sagen, ja weil wir am Anfang alle geglaubt habe, das digitale Paradies bricht aus und alle werden Wikipedia Commons gründen und sind alle mega lieb. Hey, ich habe im Business gearbeitet, da wird damit gekämpft. Ich habe über russischen Information Warfare recherchiert und mit vielen Estonen geredet, wie die sich da versuchen zu verteidigen und über die große Frage: Sind es überhaupt die Russen, die angegriffen haben? Die Welt ist nicht einfach nur happy, wir können jetzt nicht einfach uns mit so Illusionen so hingeben und hoffen, dass uns Papa Staat schützt. Das reicht nicht aus.

AS: Es ist spannend, dass wir beide Extreme hatten. Vor sieben Jahren gab es noch diese Utopie des freien Internets, Raum für Partizipation, arabischer Frühling. Und heute haben wir nur den Raum voller Desinformationen, Hate Speech und Fake News. Also beides ist ja nicht wahr und ich glaube auch…

HG: Jetzt wird es Zeit für eine neue Utopie.

AS: Absolut.

HG: Das Wort Utopie nervt mich total, aber es wird Zeit für ein Vision, weil die Leute sind so verzweifelt. Was ist, wer plädiert denn eigentlich noch für eine globale Welt und offene Grenzen. Wenn Facebook und Google zum Beispiel jetzt verteufelt werden und flach sind oder reguliert oder mit dem Staat gemerged, wie da vorhin vorgeschlagen wurde. Wer ist denn eigentlich noch da und sagt, hey, wir wollen eine offene und freie Welt? Das war ja die letzte Welle in der Utopie-Geschichte – die Silicon Valley Verheißung. Und da braucht es irgendwo, irgendwas neues, wo sich jene, die für eine offene und freie Welt eintreten sammeln können. Wo ist das denn jetzt gerade?

AS: Man hat so den Eindruck, dass es nur die autoritären Züge sind, die die Oberhand in der Diskussion haben. Die Dame…

Teilnehmer 8: Meine Frage hat zu tun mit dem Wahlbutton, der vorhin schon angesprochen wurde und überhaupt mit dem ganzen Thema Manipulation oder Beeinflussung von Wahlen. Sie haben vor ungefähr einem Monat einen Artikel geschrieben, glaube ich, über Irland und die Rolle von…

HG: Island.

Teilnehmer 8: Island. Und kurz danach gab es in Berlin eine Veranstaltung mit dem ich glaube es hieß „Vice President Global Newsfeed“ von Facebook und dort habe ich eine Frage gestellt: In Ihrem Artikel geht es sinngemäß darum, dass der Wahlbutton in Island ausgespielt wurde, aber eben nicht allen Facebooknutzern, sondern nur einigen und dann wurden Fragen dazu gestellt und ich habe dann die Frage dort gestellt, wie verhält sich das dann damit, warum bekommen den nicht alle angezeigt oder überhaupt er soll mal Stellung dazu nehmen, was es mit dem Wahlbutton auf sich hat. Der wusste dann gar nichts von der Geschichte, ich bin aber hinterher nochmal von Facebook kontaktiert worden und die haben gesagt, es stimmt alles gar nicht, sondern natürlich bekommen alle Wahlberechtigten diesen Wahlbutton ausgespielt mit einer Reihe von relativ eng eingezirkelten Ausnahmen und Sie und ich hatten auch einen kurzen Twitter-Austausch dazu, weil Sie dann bei Twitter gesagt haben, Sie hätten es aber schriftlich von Facebook, dass genau das nicht stimmt. Woraufhin die mir dann gesagt haben, wir zeigen Ihnen die Mail, die wir Herrn Grassegger geschickt haben, das einzige was es da an Ausnahmen gibt…

HG: Ja genau, das einzige, was es da an Ausnahmen gibt.

Teilnehmerin: ...sind dann…

HG: Sorry, die haben mir eine Mail geschickt…

Teilnehmerin: Darf ich noch…

HG: Ja, Entschuldigung, ich höre Ihnen zu. Ich bin ganz aufgeregt, es hat mich sehr bewegt damals.

Teilnehmer 8: Vor allem mich interessiert das Thema auch sehr. Jedenfalls haben die also geschrieben, es gäbe relativ wenig Ausnahmen, also eben Wahlberechtigte, unter 18-jährige nicht, Leute die Spracheinstellungen haben, die deutlich vermuten lassen, dass die in dem Land dort nicht leben oder weil sie anklicken, dass sie den Wahlbutton nicht mehr sehen wollen. Und dieser Widerspruch ist dann so stehengeblieben, Facebook belegt mir schriftlich, das stimmt nicht, Sie verharren auf Ihrer Meinung und jetzt wollte ich mal wissen, wie das aus Ihrer Sicht aussieht.

HG: Nicht Meinung, sondern Rechercheergebnisse. Ich habe gezeigt und dafür gibt es ja auch Belege, in Island das sieht halt nicht jeder, nicht jeder Isländer, nicht jeder volljährige Isländer und habe dann gefragt, wieso sieht es denn dann nicht jeder? Man muss kurz sagen, der Wahlbutton ist eine Wahlaufforderung, die wird in manchen Ländern und in manchen anderen Ländern nicht, bei Wahlen ausgespielt, am Wahltag, und es gibt Leute, die sagen, sie sehen es und andere Leute die sehen es halt nicht. Und wir wissen nicht genau warum, aber wir müssen uns natürlich darauf verlassen, was Facebook uns da so sagt. Und Facebook sagt dann halt auch mal was anderes, als was die Leute so sehen.

Und das zeigt doch eigentlich schon, in was für einer Situation wir drin sind. Wir haben hier ein Unternehmen, das wissenschaftliche Studien stolz darüber publiziert, dass dieser Button funktioniert und einen Effekt hat auf die Wahlbeteiligung und dann entscheiden die einfach ganz frei darüber, in welchen Wahlen sie es benutzen und in welchen Wahlen nicht. Und ich soll mich darauf verlassen, dass die es gut meinen und neutral sind? Wie zum Beispiel inferieren die, wer wirklich volljährig ist, habe ich gefragt und keine Antwort bekommen. Die User geben irgendwas an auf Facebook, gerade beim Alter, woher wissen die dann, wer ein volljähriger Staatsbürger ist? Alleine schon darauf hätte ich gerne eine detaillierte Antwort von Facebook, weil ich finde das ist eine ziemlich heikle Information.

Teilnehmer 8: Ich bin keine große Facebook-Freundin, insofern rennen Sie da bei mir eine offene Tür ein. Meine Frage ging so ein bisschen dahin, weil Sie eben auch geschrieben hatten, Sie haben es schriftlich von Facebook. Und ich fand, das was die mir gezeigt haben, was sie Ihnen geschickt hätten, das fand ich erst mal plausibel, sind halt alle, mit wenigen detaillierten Ausnahmen. Und Sie haben sich ja darauf berufen zu sagen, Sie hätten es schriftlich, dass es eben nicht allen angezeigt wird.

HG: Genau, das ist ja auch korrekt, es wird nicht allen angezeigt. Also das haben die mir geschrieben, die haben gesagt es gibt folgende Ausnahmen und ich habe als zweite Quelle dafür die Leute in Island. Also da gibt es ganze dokumentierte, offene Facebook-Diskussionen, wo Leute sagen, ob sie den Button gesehen haben oder nicht. Ich habe zusätzlich darüber hinaus noch Leute gefragt, die auch beschrieben haben, ob der Button angezeigt wurde. Das schien nicht nach seltenen Ausnahmen. Und vor allem frage ich mich auch, warum Facebook das nicht genau offenlegt. Ich meine, das ist ein Eingriff in die Wahl des Souveräns mit Methoden, die vielleicht einen kleinen, aber messbaren Effekt haben. Was ist die Legitimation dafür? Finde ich schon mal sehr interessant.

Teilnehmer 8: Sie müssten da auch Fragen offenlegen, werden Sie das Thema noch weiter bringen?

HG: Die Isländer haben eine sehr lustige und coole und kompetent wirkende Premierministerin, die auch einen sehr großen Wert auf die Souveränität ihres Landes legt. Ich hatte ja gehofft, dass die sich da einschalten wird. Und es ist aber nicht so viel passiert. Ich glaube, keiner weiß so richtig, was man da tun kann. Also ich bin Island, ich bin 400.000 Leute und Facebook entscheidet halt mal was. Und Facebook hat es auch für Deutschland entschieden, dass sie diesen Wahlbutton mal machen und mal auch nicht. Und in der Schweiz, bei uns, haben sie es mal nicht gemacht. Machen Sie es in Russland? Also ab wann ist es eigentlich eine demokratische Wahl? Was stecken da alles für implizite Annahmen drin und wie soll ich das eigentlich schlucken, ohne da jetzt genaueres zu erfahren?

Ich arbeite die ganze Zeit über digitale Themen und ich werde nie meine Themen im Vorhinein verraten, aber was ich von Ihrer Arbeit mitbekommen habe, auch wenn sie vielleicht nicht ordoliberale für Eigentum plädierende Ökonomen und Ökonominnen sind usw., ich finde es total interessant, was Sie da in Deutschland an Debatte eingebracht haben, das verfolge ich auch. Das finde ich sehr gut, ich danke auch für die kritische Gegenfrage. Ich schicke Ihnen die Mail und Sie werden wahrscheinlich die gleiche Mail sehen von mir. Die haben halt einfach gesagt, ja es wird aus folgenden Gründen nicht allen angezeigt, aber ohne klarere Offenlegung, ist halt eine kurze Antwort.

AS: Was waren es denn für Gründe?

HG: Die Gründe waren, ich kann sie jetzt glaube ich nicht auswendig aufzählen. Soweit ich mich richtig erinnere ist es so, dass es Message-Notification-Einstellungen gibt, bei denen Facebook nicht genau weiß, wer die aktiviert, was ich schon mal interessant finde. Und diese Leute die sehen Notifications, zu denen der Wahlbutton gehört, nicht. Und wenn ich jetzt aber weiß, dass nur die Leute die Notifactions aktivieren, das ist schon mal eine andere Gruppe als die Leute, die nicht aktiv solche Notifications… Das ist für mich ein bewusstes User-Segment, würde mein Bauchgefühl aus der Marketing Vorlesung Teil 1 sagen. Das ist also ein anderes Wählerklientel als die Leute, die sich einen Dreck darum kümmern, User-Notification abzustellen.

Das heißt, die Frage ist doch, bringt man einen Bias rein? Verzerrt man Wahlergebnisse? Und selbst wenn man jetzt sagt okay, das sind halt Leute, die Notifications abstellen und wir nehmen mal an, dass das halt eine andere Subgruppe ist mit anderen politischen Präferenzen. Und selbst wenn es Facebook nicht weiß, haben sie nicht damit eine fahrlässige implizite Bias-Einbringung losgelöst? Darum ging es mir eigentlich: Das erst mal offenzulegen. Vorhin wurde das gesagt: Facebook stellt sich als missbrauchtes Opfer da. Der Forscher Alexander Kogan „missbraucht“ irgendwas und saugt denen die Daten ab, ohne dass Facebook es je mitbekommt, sie versuchen angeblich ja alles dagegen zu tun. Währenddessen greifen sie in unsere Wahlen ein mit einem Tool, von dem sie wissenschaftlich belegt haben, dass es funktioniert und entscheiden auch noch, in welche Wahlen das gemacht wird. Facebook ist Akteur, darum ging es in dem Artikel, die sind nicht einfach nur Opfer von Missbrauch. Die sind Akteur. Ich hätte es noch zehnmal reinschreiben sollen.

Teilnehmer: Die sind doch zum ersten Mal eingeführt worden, um die Leute zum Urnengang zu motivieren.

HG: Genau und am Anfang (so gegen 2010) hatten alle Angst, dass jetzt nur die Linken gewinnen, weil Facebook ist ja nur was für linke, progressive Liberale. Jetzt haben gerade alle Angst, dass nur noch die Rechten deswegen gewinnen, weil vor allem Leute im fortgeschrittenen Alter Facebook nutzen und die anderen sind alle auf Snapchat. Also nein, so einfach ist das, glaube ich, nicht. Und die Genesis des Facebook-Buttons ist, dass irgendeine Voter Rights Gruppe zusammengearbeitet hat mit Facebook – und ich glaube, alles im besten Willen und so weiter und so fort. Ich finde halt bloß, das hat eine seltsame Willkürlichkeit. Die Frau, die diesen Button aus den USA herausgebracht hat in die Welt, die hat mir dann erzählt, sie habe persönlich entschieden, das Referendum zur Loslösung von Schottland aus dem UK sei ein guter Testcase für den Button in Europa. Weil Europa hat eben diese wahnsinnig komplizierten Parteienlandschaften, nicht wie in den USA, wo es nur zwei gibt, sondern so viele kleine Fitzelparteien und da kommt man ja schnell in Komplikationen und Erklärungsnöte. Aber so ein Referendum, fand sie, ist klar, da gibt es zwei Seiten und ist auch so ein bisschen lagerübergreifend: Es gibt ja auch linke Brexit-Befürworter. Und so testet man halt mal den Button. Da ist in meinen Augen halt kein korrektes Selbstverständnis von der eigenen Macht und es gibt auch keine rechtlichen Grenzen dafür. In Island zum Beispiel: Ich saß dann bei diesen ganzen Regierungsleuten und die alle so „Ich weiß nicht, ob es da ein Gesetz dafür gibt, ich glaube nicht, nein. Wir haben eigentlich so eine Kommission, die arbeitet eigentlich da daran und so ein neues Gesetz soll die entwerfen, ja das sagen wir der mal.“ Und so geht es halt auch bei uns…

Teilnehmer 4: Das war in Deutschland auch – „ein Niedersachse soll Kanzler werden“. Hatten wir auch immer wieder, dass Privatpersonen zum Urnengang auffordern, damals sogar tendenziös für Schröder. Also das ist ja auch nicht neu für uns.

HG: Nein, aber es ist Unterschied, wenn ich nicht weiß, also mit letztendlicher Sicherheit, wie das genau passiert. Wenn Schröder ans Mikro geht und allen in der Bildzeitung verkündet, dass sie jetzt für Putin stimmen sollen, dann wissen wir, es ist wie eine offene Plattform, wir alle können darüber streiten. Aber bei Facebook läuft halt diese Blackbox im Hintergrund, worüber das Unternehmen uns irgendwas sagt, aber wir haben halt echt schon oft gemerkt, wie sie uns belogen haben und so geht es halt nicht. Vor allem nicht im sensiblen Bereich der Demokratie, da muss Schluss damit sein.

Teilnehmer 9: Ich habe vor 35 Jahren eine der ersten fünf BBS (Anm.: bulletin board system, frühes Datenaustauschsystem) in Deutschland betrieben, bin schon ein bisschen länger in dem Thema. Ich fand Ihren Kommentar auch vorhin sehr spannend, dass Sie gesagt haben, wir sind im Moment, im aktuellen Stand quasi auf dem Stand des Modell T., was Microtargeting betrifft oder überhaupt das ganze Thema Targeting. Das Pferd ist immer noch schneller, es gibt immer noch andere Möglichkeiten. Was wären so die nächsten Stufen, was als nächstes kommt und welche Einfluss wird es auf uns haben?

HG: Also ich habe 5 Brüder, einer arbeitet im Microtargeting und der ist total genervt davon, wie ich ihm die Sache versalzen hat, weil Facebook hat jetzt voll viele Optionen deaktiviert und es wird voll schwierig und man muss einige Sachen nachweisen. Also jetzt ist es erst mal so nervig und ich selber bin eigentlich am Targeting gerade nicht so spezifisch interessiert. Also mich interessiert es in bestimmten Kontexten. Also zum Beispiel haben mit Estonen erzählt, das Datentargeting, das kann durchaus physisch werden, haben sie das Gefühl. Es gibt Leute, die im Defensebereich gearbeitet haben, die auf der Straße angefahren worden seien unter ungeklärten Umständen. Sie haben das Gefühl, die seien ermittelt worden, identifiziert und dann angegriffen, also Targeting in der militärischen Bedeutung. Dem bin ich nicht weiter nachgegangen und ich kann es nicht bestätigen, aber es gab solide Leute, die mir das erzählt haben.

Aber ich kenne nicht die Zukunft des Marketings. Ich glaube halt, diese Verschmelzung von physischem und digitalem Raum ist das eigentlich Wahre. Dass ich eigentlich gar nicht mehr über so komische Benutzerplattformen Informationen abgeben muss wie bei Facebook: What‘s on your mind. Sondern dass halt sozusagen durch meine Art, meine individuelle Art, wie ich so laufe, erkennt halt die Umgebung was gerade bei mir läuft, was mich interessiert, was ich intendiere. Es wird versucht abzuleiten, es werden Regressionen gebildet und dann wird mir was angeboten. Meine Umgebung wird dann personalisiert und damit rutschen wir tendenziell in so was rein wie so eine Art virtuelle Realität, wo jeder in seiner eigenen Welt lebt. Das soll nicht jetzt auf die Filterblasendiskussion eingehen, aber ich glaube an so eine Personalisierung unserer Umgebung. Und Targeting ist da auch in dieser größeren Vision nur ein Zwischenschritt hin zu so einer personalisierten Informationsversorgung. Die Trump Kampagne war ja mega handgemacht. Die haben 150.000 Variationen rausschießen müssen an einem Tag, um zu testen, ob jetzt die Hintergrundfarbe Blau, Grün oder Rot besser zieht, damit die Leute auf Trump-Banner zum Spenden klicken auf Facebook. Deswegen gibt es diese Ad-Variations. Da A-B-Testing war ja handgemacht, die gehen da mit Photoshop, das ist nicht eine AI, sondern Photoshop, background colour ändern, der einen Gruppe senden wir blau, der anderen rot zu, wer spendet mehr, okay damit fahren wir weiter. So läuft es jetzt nicht, ist alles überhaupt nicht mystisch und das wird zukünftig natürlich automatisiert werden. Dann gibt es künstliche Intelligenz oder maschinelles Lernen, die man dann benutzen wird.

AS: An dieser Stelle ganz herzlichen Dank, Hannes Grassegger, dass Sie da waren. Auch danke an Sie für das Kommen.

- Ende des Transkripts -

 

06. Juni 2018