Februar 2019: Woran die Stiftung Neue Verantwortung aktuell arbeitet

Feb 26, 2019

Woran wir gerade arbeiten

Die Frage, wie sich eine Datenökonomie fördern lässt und welche Regeln und Reformen dafür notwendig sind, ist für die Wirtschafts- und Wettbewerbspolitik nicht nur in Deutschland, sondern für ganz Europa von zentraler Bedeutung. Unser Projekt „Datenökonomie und Data Governance“ soll genau hier ansetzen und mit Analysen, Debattenbeiträgen, Netzwerkarbeit sowie konkreten politischen Handlungsvorschlägen einen Beitrag leisten. Für dieses Projekt suchen wir eine:n Projektleiter:in. Hier geht es zur Stellenausschreibung.
▬▬▬▬▬
Der Hype um Künstliche Intelligenz ist auch in der IT-Sicherheit zu spüren. Gemeinsam mit einem Netzwerk von Cybersicherheitsexpert:innen aus den USA, Deutschland, Frankreich und England wird Sven Herpig in den kommenden Monaten analysieren, welche ernstzunehmenden IT-Sicherheitsrisiken durch den Einsatz von KI entstehen. Dazu zählt das Maschinelle Lernen in Programmen oder Applikationen, bei dem die Sicherheit beispielsweise durch die Manipulation von Trainingsdatensätzen gefährdet werden kann.
▬▬▬▬▬
Der Zugang zu großen Mengen von Daten erlaubt es Unternehmen, durch den Einsatz Künstlicher Intelligenz, neue Produkte und Dienste zu entwickeln. In Deutschland prüft die Bundesregierung deshalb den Aufbau einer nationalen Dateninfrastruktur, über die Unternehmen Daten teilen und gemeinsam nutzen können. Nicola Jentzsch und Stefan Heumann haben die bereits existierenden Datenpools, Repositorien und Plattformen in Deutschland analysiert und daraus Schlussfolgerungen für den strategischen Aufbau von Dateninfrastrukturen entwickelt. Ihre Ergebnisse werden voraussichtlich Ende März veröffentlicht.

 

Was wir gerade mit Interesse lesen

Die Unternehmensstrukturen chinesischer Unternehmen wie Huawei sind so undurchsichtig, dass andere Staaten nur wenig Vertrauen in sie haben. Für Huawei und Co. führt dies langfristig zu ökonomischen Schäden. In einem Fachartikel beschreiben zwei australische Forscher:innen auf welchen Ebenen und warum chinesische Technologie-Unternehmen internationalen Anforderungen an die Transparenz über Geschäftsprozesse, Etablierung von Gremien und Entscheidungsstrukturen nicht gerecht werden. Sie diskutieren auch, wie man Unternehmensrichtlinien der OECD und Chinas modernisieren müsste, um diese Probleme zu lösen. Gelesen von Jan-Peter Kleinhans.
▬▬▬▬▬
Für diesen Artikel wurden 16.625 wissenschaftliche Artikel der letzten 25 Jahre analysiert, um die technologische Entwicklung von Künstlicher Intelligenz historisch nachzuvollziehen. Herausgekommen ist eine Art Fieberkurve von Theorien und Techniken, die in verschiedenen Phasen dominant waren. Interessant ist dabei vor allem die Beobachtung, dass manche Ansätze komplett verschwanden. Andere Ideen wurden zunächst verdrängt, erlebten später aber wieder eine Renaissance – etwa weil die größere Rechenleistung nun die Einsatzmöglichkeiten verbessert hat. So zu beobachten beim derzeitigen Trend des "Reinforcement Learnings", einem Teilbereich des maschinellen Lernens. Analysen wie diese sind auch für den Blick in die Zukunft von KI relevant, etwa um Regulierung oder Forschungsförderung gezielter einzusetzen. Gelesen von Kate Saslow.
▬▬▬▬▬
Noch vor der EU-Parlamentswahl im Mai soll ein EU-Gesetz verabschiedet werden, das Internetplattformen verpflichtet, bestimmte Inhalte kurzfristig zu löschen, wenn sie als "terroristisch" eingestuft wurden. Martin Scheinin, wissenschaftlicher Berater der Agentur der Europäischen Union für Grundrechte, erklärt in seinem Blogpost, warum er den derzeitigen Gesetzestext für höchst problematisch hält. Scheinin hält insbesondere den Einsatz von automatisierten Filtern für ungeeignet, da Software – anders als rechtliche Verfahren – zu viele Fehler macht und dadurch systematisch in Grundrechte eingreift. Gelesen von Kilian Vieth.
▬▬▬▬▬
Das IT-Sicherheitsunternehmen Crowdstrike hat in dieser Woche seinen "Threat Report" veröffentlicht – eine Art jährlicher Bericht über die aktuellen Sicherheitsrisiken und Angriffstaktiken im Netz. Auch dieses Jahr wurde untersucht, wie viel Zeit zwischen dem Eindringen von Hacker:innen in ein Netzwerk und der vollständigen Kompromittierung des Netzwerks vergeht – also beispielsweise zwischen dem Klick auf einen Phishing-Link und dem Diebstahl einer Datei aus dem Firmennetz. Diese "breakout time" beträgt bei staatlichen Hacker:innen aus Russland im Schnitt weniger als 19 Minuten. Akteure aus Nordkorea liegen mit zwei Stunden auf Platz zwei. Das Zeitfenster für die Abwehr eines Angriffs schließt sich bei bestimmten Angreifern also bereits, wenn diese in das Netzwerk eingedrungen sind. Gelesen von Sven Herpig.
▬▬▬▬▬
In einem Blogpost werden die Äußerungen des Deputy Director for Strategic Policy des britischen Nachrichtendienstes GHCQ Paul Kilworth wiedergegeben. Dieser zeigt sich besorgt über den Einsatz von Künstlicher Intelligenz in der nachrichtendienstlichen Aufklärung. Kilworth stellt dabei wichtige Fragen: Kann KI helfen, den "Information Overload" zu bewältigen, den Nachrichtendienste durch die Digitalisierung erfahren? Wie kann sichergestellt werden, dass der Einsatz von KI nicht ohne eine Debatte über ihre Risiken eingesetzt wird? Und nicht zuletzt auch wie die Gesetzgebung an diese neuen Entwicklungen angepasst werden muss, um den Missbrauch von KI durch Nachrichtendienste zu verhindern. Gelesen von Thorsten Wetzling.
▬▬▬▬▬
Wenn Unternehmen Daten analysieren, können sie verschiedene Methoden anwenden, um die Privatsphäre ihrer Kund:innen zu schützen. Viele Methoden, die personenbezogene Daten anonymisieren, verschlechtern aber gleichzeitig die Datenqualität und somit die Aussagekraft der Analysen. Andere Methoden, beispielsweise "Differential Privacy" (DP), sollen Datenanalysen ermöglichen, aber gleichzeitig die Privatsphäre schützen. Bei DP werden Datenabfragen "verrauscht", also durch Zufallsfaktoren verändert. In ihrem Papier zeigen die Wissenschaftler:innen um Xueyang Hu (Shanghai Jiatong University), dass durch DP die Datenqualität so stark abnehmen kann, dass die Nützlichkeit der Methode in großen Industrieanwendungen des Data Mining sehr fraglich ist. Gelesen von Nicola Jentzsch.
▬▬▬▬▬
Mithilfe einer Simulation eines großangelegten Cyberangriffs auf die USA wurde getestet, wie staatliche Behörden und Privatunternehmen im Ernstfall zusammenarbeiten. Der begleitende Report zeigt, dass insbesondere beim Informationsmanagement noch immer große Abstimmungsprobleme herrschen. Diese Probleme lassen sich auch darauf zurückführen, dass bisher noch kein Weg gefunden wurde, wirtschaftliche Interessen und Nationale Sicherheit in Notfällen sinnvoll gegeneinander abzuwägen. Gelesen von Julia Schuetze.
▬▬▬▬▬
Der Ölgigant Shell hat bekannt gegeben, das deutsche Unternehmen "sonnen" zu kaufen. Sonnen ist spezialisiert auf Batterien, die im eigenen Zuhause die Energie aus privat betriebenen Solaranlagen speichern. Sonnen hat viele Tausende dieser Batterien, die sie an private Haushalte verkauft haben, digital zu einem großen "Virtuellen Kraftwerk" zusammengeschaltet. Dass Shell diese Firma nun kauft, zeigt, dass auch die "Big Oil"-Industrie das wirtschaftliche Potential der dezentralen Energiewende und der Prosumer erkannt hat. Ob die langfristigen Ziele eines Ölunternehmens mit denen einer dezentralen Energiewende harmonieren, wird sich zeigen. Dem Übergang zu einem sauberen Energiesystem kann es aber durchaus nützen, wenn Shell nun auch ein wirtschaftliches Interesse an der Energiewende hat. Gelesen von Fabian Reetz.

 


Deep Dive: Leseliste zu Desinformation und der anstehenden Europawahl

Die Europawahl steht vor der Tür und nun wird sich zeigen, wie viel Politik, Medien, Gesellschaft und private Internetplattformen seit der US-Wahl 2016 über den Umgang mit Desinformationskampagnen gelernt haben. Alexander Sängerlaub und Riccardo Ramacci haben dazu eine Leseliste erstellt:

Zwei Longreads zum Thema

Warum Facebooks geschlossene Datenschnittstellen die systematische Analyse von Desinformationskampagnen verhindern

Strategien und Ankündigungen der EU-Kommission und der Tech-Unternehmen

Werbedatenbanken von Facebook und Google: Probleme und Auswirkungen

Technische Hintergründe zu Deepfakes und ihre Bedeutung für Desinformationskampagnen

 

Überblick: Aktuelle Veröffentlichungen und Medienbeiträge

5G vs. National Security (Policy Brief): In dem Papier analysiert Jan-Peter Kleinhans, welche Gefahren von chinesischer IT in Mobilfunknetzen ausgehen und wie Regierungen diese Risiken minimieren könnten. Zusätzlich macht die Analyse deutlich, dass wir in den kommenden Jahren immer öfter vor der Frage stehen werden, wo durch die Abhängigkeit von chinesischer IT neue Sicherheitsrisiken entstehen.
▬▬▬▬▬
Cyber-Veranstaltungskalender online: In der vergangenen Woche haben wir unseren Veranstaltungskalender für Tagungen, Konferenzen und Vortragsreihen im IT-Sicherheitsbereich online gestellt. Er wird laufend aktualisiert. 
▬▬▬▬▬
The trouble with AI and Europe (Podcast): Wie kann Europa im Bereich der Künstlichen Intelligenz mit den USA und China mithalten? Für den Podcast „The big Tech Show“ diskutiert Stefan Heumann darüber mit Adrian Wecklers.
▬▬▬▬▬
Research Handbook on Human Rights and Digital Technology – Global Politics, Law and International Relations (Handbuch): Als Mitherausgeber ist Kilian Vieth an diesem Handbuch zu Menschenrechten und Digitalisierung beteiligt. Darin haben 27 Autor:innen aus ganz unterschiedlichen Disziplinen in 21 Beiträgen verschiedene netzpolitische Debatten aus Menschenrechtsperspektive aufbereitet und ermöglichen so einen Überblick über das komplexe Themenfeld.
▬▬▬▬▬
So kann Europa KI-Experten anlocken (Gastbeitrag): In einem Gastbeitrag für die Wirtschaftswoche hat sich unser Fellow Julian Clayton damit befasst, welche Wege die europäische Wirtschaft gehen kann, um im Wettbewerb um Fachkräfte im KI-Bereich mitzuhalten. Dabei geht es nicht nur darum, wer das beste Gehalt zahlen kann, auch Ausbildungsförderung und soziale Faktoren spielen eine wichtige Rolle.

 

Woran wir uns nicht mehr erinnern

1945 – Um die Gleichstellung innerhalb der Informatik sah es zu Beginn der Computerära besser aus als heute. Damals waren die meisten Programmierer:innen Frauen. Eine von ihnen war die Mathematikerin Grace Hopper, die nicht nur den ersten "Übersetzer" entwickelte, der zwischen dem Binärsystem aus Nullen und Einsen des Computers und der menschlichen Sprache vermittelte, sondern auch den Begriff des "Bugs" für ein Problem im Code prägte: Zwischen die Relais des riesigen Rechners, mit dem Hopper arbeitete, war eine Motte geflogen, was einen Kurzschluss auslöste. In ihr Laborbuch schrieb Hopper: "First actual case of a bug being found". Erinnert sich Johanna Famulok