August 2018: Woran die Stiftung Neue Verantwortung aktuell arbeitet

August 2018: Woran die Stiftung Neue Verantwortung aktuell arbeitet

07. August 2018

Woran wir gerade arbeiten
 

Wettbewerbspolitiker:innen wollen die Marktmacht von Digital-Unternehmen begrenzen und planen, dafür das Wettbewerbsrecht zu reformieren. Nicola Jentzsch arbeitet an einem Überblick, welche bestehenden Probleme der Missbrauchsaufsicht und der Fusionskontrolle angegangen werden müssen, damit dies gelingt. Ihr Papier wird diesen Donnerstag veröffentlicht.
▬▬▬▬▬
Immer mehr Branchen investieren in die Erforschung und den Einsatz von Blockchain-Technologien. Allerdings stellt der enorme Energieverbrauch ein klimapolitisches Problem dar. Woran das liegt und wie die Politik darauf reagieren kann, fasst Fabian Reetz derzeit in einem Papier zusammen. Es erscheint voraussichtlich Anfang September.
▬▬▬▬▬
Die Bundesregierung wird im Herbst eine umfassende Strategie vorlegen, mit der sie die Erforschung und den Einsatz Künstlicher Intelligenz in Deutschland vorantreiben möchte. Stefan Heumann und Nicolas Zahn beschäftigen sich mit der Frage, wie die Umsetzung der Strategie überprüft werden könnte. Ihr Papier erscheint im September.
▬▬▬▬▬
Demokratische Wahlen können auf viele verschiedene Arten digital angegriffen werden: Öffentliche Webseiten mit Wahlinformationen werden gezielt ausgeschaltet, Wahl-Register manipuliert, Wahlkampf-Zentralen ausgespäht oder schädliche Informationen gezielt geleakt. Sven Herpig und Julia Schuetze arbeiten an einem umfassenden Überblick, mit welchen Taktiken Angreifer:innen vorgehen, auf welche Daten sie es absehen und welchen Beitrag Behörden und Parteien leisten können, um die Sicherheit von Wahlen zu erhöhen. Ihr Papier erscheint Anfang September.
▬▬▬▬▬
Das Militär, der Bundesnachrichtendienst und Sicherheitsbehörden wie der Bundesverfassungsschutz wollen Schwachstellen in weltweit genutzter Soft- und Hardware geheim halten, weil ihnen das unter anderem die digitale Überwachung von Verdächtigen und die Sammlung von Informationen ermöglicht. Diese Praxis hat auch Nachteile: Werden offene Schwachstellen den Herstellern nicht gemeldet, bleiben sie ein Sicherheitsrisiko für Behörden, Wirtschaft und Gesellschaft. Sven Herpig arbeitet an einem ersten Vorschlag, wie der Staat mit diesem Dilemma umgehen kann. Sein Papier erscheint voraussichtlich Ende August.
▬▬▬▬▬
Die Polizeibehörden in sechs Bundesländern setzen derzeit das sogenannte “Predictive-Policing” ein, um mit Hilfe von Datenanalysen und Vorhersagen die Polizeiarbeit effektiver zu gestalten. Weitere Bundesländer erwägen ebenfalls den Einsatz von Predictive-Policing-Programmen. Was Polizeibehörden von den bereits realisierten Projekten in Deutschland lernen können und unter welchen Bedingungen ihr Einsatz überhaupt sinnvoll ist, analysiert Tobias Knobloch in einem Papier. Die Veröffentlichung ist für September geplant.
▬▬▬▬▬
Der EU Cybersecurity Act soll die IT-Sicherheit von internetfähigen Produkten und Dienstleistungen in Europa stärken, indem Hersteller ihre Produkte zertifizieren (lassen). Aufgrund beständig fortschreitender Softwareentwicklung verlieren solche Zertifikate jedoch schnell ihre Aussagekraft. Der Markt benötigt daher zusätzliche Informationen vom Hersteller während der Produktlebenszeit, um tatsächlich die Vertrauenswürdigkeit eines Produktes einschätzen zu können. Wie ein solches System aussehen könnte, beschreibt Jan-Peter Kleinhans in seinem Papier, welches Ende August erscheint.
▬▬▬▬▬
 

Was wir gerade mit Interesse lesen
 

Die Aufgabe von Aufsichts- und Regulierungsbehörden ist es, Unternehmen bei der Einhaltung von Gesetzen zu kontrollieren und Fehlverhalten zu ahnden. Im Netz haben die Behörden viel Nachholbedarf: Missstände lassen sich aufgrund personalisierter Algorithmen oder großer Datenmengen nur schwer mit den konventionellen Mitteln der Behörden erkennen. Will der Staat Tech-Unternehmen und deren Märkte wirkungsvoll kontrollieren, müssen auch Regulierer Datenanalysen und intelligente Systeme einsetzen. Die Journalistin Katharina Schwab beschreibt, wie die Nichtregierungsorganisation ProPublica durch den Einsatz von Algorithmen hierbei zu einem Vorreiter wurde. Gelesen von Stefan Heumann.
▬▬▬▬▬
Raffi Krikorian hat als leitender Ingenieur für Uber und Twitter gearbeitet. Seit einigen Wochen leitet er die Technologie- und Innovationsabteilung der demokratischen Partei der USA. In einem Podcast spricht er über die digitalen Werkzeuge der Demokraten sowie über Strategien, wie die Partei für mehr digitale Sicherheit sorgt. Gehört von Julia Schuetze.
▬▬▬▬▬
In den USA wurde wegen Computer-Angriffen während der US-Wahl gegen zwölf russische Geheimdienst-Mitarbeiter Anklage erhoben. Der Journalist Sean Gallagher hat sich die Anklageschrift angeschaut: Sie erlaubt Einblicke, wie US-Behörden im Fall von Cyber-Angriffen bei ihren Ermittlungen technisch vorgehen. Gelesen von Sven Herpig.
▬▬▬▬▬
Geoff Huston, leitender Wissenschaftler bei APNIC (Internet-Registrar für Asien-Pazifik-Region) beschreibt in einem Rundumblick, wie sich das Internet als globale Infrastruktur unserer Gesellschaften in den letzten zehn Jahren verändert hat. Huston analysiert die technischen Entwicklungen des Internet auf verschiedenen Ebenen: Vom Glasfaser-Kabel über die technischen Protokolle bis hin zu Zensur und Datenschutz. Gelesen von Jan-Peter Kleinhans.
▬▬▬▬▬
Nicht nur in Deutschland, sondern auch in Indien, Russland, Italien oder Indonesien haben Regierungen Gesetze erlassen und staatliche Stellen eingerichtet, um digitale Desinformation oder “Fake News” zu bekämpfen. Das Poynter Institute hat einen Überblick erstellt, in welchen Länder welche Regulierungsansätze umgesetzt wurden. Gelesen von Alexander Sängerlaub.
▬▬▬▬▬
Die Statistik ist von enormer Bedeutung für die Organisation des Staates und ist ein wichtiger Bezugspunkt in öffentlichen Debatten. Allerdings sinkt das Vertrauen in statistische Erhebungen. Gleichzeitig wird stattdessen zunehmend auf das Prinzip “Big Data” gesetzt. In einem längeren Essay aus dem Jahr 2017 beschreibt der Politikwissenschaftler William Davies diesen Wandel aus einer historischen Perspektive und warnt vor den möglichen Folgen für demokratische Gesellschaften. Gelesen von Tobias Knobloch.
▬▬▬▬▬
Eine Reihe bekannter Ökonom:innen vertreten die These, dass größere Datenbestände einem Unternehmen auf digitalen Märkten kaum nennenswerte Wettbewerbsvorteile bringen. Das dies zumindest in Teilen anzuzweifeln ist, behauptet eine Gruppe von Forscher:innen der Universität Antwerpen in einem Papier aus dem Jahr 2017. Die Forscher:innen zeigten, dass mehr Daten es erlauben, bessere Prognosen aufzustellen. Bei einer Online-Shopping-Plattform würde dies beispielsweise bedeuten, dass Anbieter mit großen Datenbeständen ihren Kund:innen genauere und passende Produktvorschläge machen könnten, als Wettbewerber mit kleinen Daten-Sammlungen. Dies erklärt, warum große Digitalkonzerne zunehmende in eine möglichst umfassende Datenerschließung investieren. Gelesen von Nicola Jentzsch.
▬▬▬▬▬
Wissenschaftler:innen der University of Toronto haben ein System entwickelt, das die automatische Gesichtserkennung erschwert und damit eine Möglichkeit bieten soll, die Privatsphäre von Menschen zu schützen. Dazu nutzten sie zwei künstliche neuronale Netze: Das erste Netz versucht das Gesicht erfolgreich zu erkennen, während das gegnerische Netz versucht, diesen Erfolg zunichte zu machen. Gelesen von Philippe Lorenz
▬▬▬▬▬


Überblick: Aktuell veröffentlichte Papiere und kommende Veranstaltungen
 

Lunch-Briefing am 29.8. / 12:30 Uhr: Wer macht was in der deutschen Cyber-Sicherheitspolitik?: Die Zuständigkeiten der Cyber-Sicherheitspolitik in Deutschland sind unübersichtlich und die verschiedenen Behörden ringen noch immer um Kompetenzen, Ressourcen und um Einfluss. Sven Herpig wird im Rahmen eines 45-minütigen Lunch-Briefings einen Überblick über die beteiligten staatlichen Stellen geben und die verschiedenen Zuständigkeiten erläutern.
▬▬▬▬▬
Hintergrundgespräch am 30.8. / 18:30 Uhr: Predictive Policing in Deutschland: Joachim Eschemann war in Nordrhein-Westfalen für die Entwicklung des Predictive-Policing-Systems SKALA verantwortlich. Er spricht mit Tobias Knobloch darüber, wie Kriminalitätsprognosen im Alltag der Polizei eingesetzt werden, welche Daten verwendet werden sowie welche Erfolge und Schwierigkeiten das Projekt SKALA in NRW hatte.
▬▬▬▬▬
Feuerwehr ohne Wasser? Möglichkeiten und Grenzen des Fact-Checkings als Mittel gegen Desinformation (Papier): Ist Fact-Checking das Allheilmittel gegen Desinformation? In einem neuen Papier erklärt Alexander Sängerlaub, dass Zweifel angebracht sind. Denn weder an der Produktion, noch an der Rezeption von Falschinformationen können Fact-Checking-Organisationen etwas verändern. Trotzdem spielen sie für die Medienkompetenz der Bürger:innen eine wichtige Rolle.

▬▬▬▬▬
 

Woran wir uns nicht mehr erinnern

 

1623 – Der Tübinger Professor Wilhelm Schickard erfindet die erste mechanische Rechenmaschine der Welt. Mit ihrer Hilfe kann man bis zu sechsstellige Zahlen addieren und subtrahieren und das Ergebnis direkt auf der Maschine ablesen. Schickard stand in regem Austausch mit dem Astronom Johannes Kepler und versprach ihm ein Exemplar der Rechenmaschine. Keplers Nachlass ist es auch zu verdanken, dass wir heute von Schickards Erfindung wissen – sie war bis ins 20. Jahrhundert verloren und konnte nur anhand von Zeichnungen, die unter anderem in Keplers Besitz waren, rekonstruiert werden. Erinnert sich Johanna Famulok.
▬▬▬▬▬