Transkript zum Hintergrundgespräch: Die 1-Milliarde-Dollar-Organisation, die ethische KI entwickelt

Transkript

Es handelt sich um ein Transkript der Veranstaltung "Die 1-Milliarde-Dollar-Organisation, die ethische KI entwickelt" mit Dr. Johannes Otterbach, Machine Learning Researcher bei OpenAI und Philippe Lorenz, Leiter des Projekts Künstliche Intelligenz und Außenpolitik vom 13.12.2019 in der Stiftung Neue Verantwortung.

Der Text wurde zur besseren Lesbarkeit bearbeitet. Es gilt das gesprochene Wort. 


- Beginn des Transkripts -

Philippe Lorenz, Projektleiter Künstliche Intelligenz und Außenpolitik, Stiftung Neue Verantwortung: Ja, meine sehr verehrten Damen und Herren, guten Abend. Vielen Dank, dass Sie erschienen sind in der Vorweihnachtszeit. Heute Abend geht es um Künstliche Intelligenz. 

Die Disziplin ist nicht neu. Sie hat eine lange Historie. Spätestens seit den 1950er Jahren sprechen wir darüber, dass sich die Disziplin der Künstlichen Intelligenz der Automatisierung kognitiver menschlicher Prozesse widmet. Dabei durchlebte diese Disziplin viele Hochs und Tiefs – sogenannte KI-Winter, von denen es einige gab. Heute Abend sprechen wir von Künstlicher Intelligenz in Zeiten eines Hochs. Zweifelsohne sind wir im Moment in der Auseinandersetzung mit dieser Technologie vom Erreichen zahlreicher Meilensteine getrieben, fast tagtäglich in der Presse.

Verantwortlich dafür ist eine bestimmte Spielart dieser Technologie, die sich Machine Learning nennt. Die in vielen Disziplinen, in denen menschliche kognitive Fähigkeiten eigentlich Vorteile mit sich bringen, plötzlich zum Maß aller Dinge wird. In der Objekterkennung ist sie Menschen teilweise schon überlegen. In bestimmten Spielen, die immer wieder herangezogen werden, um die Fähigkeiten dieser Systeme zu testen, kommt es immer wieder dazu, dass diese Maschinen den Menschen schlagen. Wir kennen diese Beispiele aus dem alten Brettspiel Go. Aber diese Systeme sind mittlerweile auch dazu fähig, komplexe Online-Rollenspiele zu spielen und dort gegen menschliche Teams anzutreten. OpenAI Five von OpenAI ist beispielsweise eines dieser Systeme. Auch DeepMind arbeitet daran, StarCraft zu automatisieren. OpenAI steht neben anderen Research-Instituten, wie Google DeepMind, aber auch FAIR, also Facebook AI Research, für eine ganz bestimmte Spielart von Machine Learning, dem sogenanntem Deep Learning. Sehr ressourcenintensiv, was Daten betrifft, sehr ressourcenintensiv, was Hardware-Infrastruktur betrifft.

Und OpenAI prägt, zusammen mit diesen anderen Research-Labs, eben auch die Diskussion über diese Technologie und macht dabei immer wieder auf sich aufmerksam. OpenAI verfügt auch über eine sehr gute Pressearbeit, muss man dazu sagen. Sie schreiben einen der Newsletter, der am häufigsten gelesen wird in der Fach-Community. Ein sehr technischer Newsletter, in den es aber zunehmend auch Policy-Themen schaffen. OpenAI ist seit der Gründung in 2015 eigentlich sofort in der Presse gewesen, weil es Elon Musk war, der diese NGO damals ins Leben rief. Seither macht OpenAI durch die Veröffentlichung von KI-Systemtechnologie immer wieder auf sich aufmerksam. OpenAI Five habe ich schon beschrieben. Dem Roboterarm Dactyl, zum Beispiel, ist es kürzlich gelungen einen Zauberwürfel zu lösen. Obwohl er diesen ab und zu auch fallen ließ, was nicht so oft besprochen wurde. Die Sprach-Engine GPT-2 ist im Stande, durch Text-Inputs, die man eingeben kann, im Kontext dieses Eingabetextes, täuschend echte Texte zu produzieren. Eine Engine, die sehr interessant ist, hat jetzt letztlich das Versteckspiel in einer Simulation erlernt. Da sind zwei Teams gegeneinander angetreten; zwei Agenten. Der eine Agent hatte den Auftrag, den anderen Agenten zu suchen. Und dieser hatte die Aufgabe, sich zu verstecken. Diese Agenten haben es während dieser Spielrunden geschafft, Werkzeuge für sich zu entdecken und diese zu manipulieren, in einer Art und Weise, die sich die Entwickler eigentlich vorher gar nicht vorstellen konnten.

Wir sehen hier einen generalisierenden Trend, den OpenAI verfolgt in seiner Forschung, was das Machine Learning betrifft. OpenAI ist auch besonders, denn von Anfang an orientierte sich die NGO an einem Mission Statement. Mission Statements sehen wir mittlerweile auch bei anderen KI-Forschungsinstituten. Google hat die AI-Principles für sich aufgestellt. DeepMind hat eigene Principles. Aber OpenAI ist 2015 mit einem Mission Statement gestartet. Seither verfolgt es das Ziel, Safe Artificial General Intelligence oder menschenähnliche Künstliche Intelligenz zu erforschen. Das ist der Ansatz gewesen, mit dem OpenAI gestartet ist und den OpenAI immer noch verfolgt. Das macht sie zu etwas Besonderem.

Wir wollen heute darüber sprechen, was OpenAI mit seiner Forschung bisher erreicht hat und was es noch in der Zukunft an Beitrag leisten kann, um diesem Ziel Safe General Artificial Intelligence gerecht zu werden. Dazu haben wir einen Gast da, der mit uns über diese Fragen sprechen wird. Johannes Otterbach möchte ich begrüßen, aus San Francisco angereist; hat wahrscheinlich auch ein bisschen etwas mit der Weihnachtszeit zu tun.

Johannes Otterbach, Machine Learning Researcher, OpenAI: Ja klar.

Philippe Lorenz: Da haben wir uns gedacht, den holen wir nach Berlin. Du kommst, glaube ich, ursprünglich aus der Nähe von Kaiserslautern. Ist das richtig?

Johannes Otterbach: Korrekt.

Philippe Lorenz: Johannes ist Machine Learning Researcher bei OpenAI. Besitzt aber eine ganze Reihe anderer Skills, die auch relevant sind für dieses Berufsbild. Darauf werden wir noch ein bisschen näher eingehen. Wir wollen auch darüber sprechen, wie potenziell diskriminierende Outputs von KI-Systemen, aber generell die Risiken algorithmischer Entscheidungssysteme, die auf Machine Learning basieren, in der Arbeit von OpenAI antizipiert werden und wie damit umgegangen wird. Wir freuen uns auf dieses Gespräch.

Das Gespräch ist in zwei Teile unterteilt, 45 Minuten werde ich ein Interview führen mit Johannes und danach werde ich das Format öffnen für Sie. Sie können dann direkt in Interaktion treten mit unserem Gast. Im zweiten Teil werde ich mich in die Rolle des Moderators zurückziehen. Ich würde Sie daher bitten, Fragen zu formulieren, von längeren Ausführungen Abstand zu nehmen, Ihre Fragen auf den Punkt zu bringen, damit wir möglichst viele Eindrücke von Ihnen beantworten können. Es wird ein Transkript erstellt, wie Sie sehen. Das wird dann wahrscheinlich immer noch in sehr energiereicher Einzelarbeit von jemandem abgetippt werden. Ich glaube nicht, dass wir bereits  über ein bestimmtes System verfügen, das den Text automatisch transkribiert. 

Johannes, Du arbeitest, wie gesagt, als Machine Learning Researcher, als Engineer – die Bezeichnungen gehen hier wild durcheinander – bei einem der führenden internationalen KI-Labs. Lex Fridman, ein KI-Forscher am MIT, hat kürzlich davon gesprochen, dass ihr ein "world-class AI Research Lab" seid; daneben war er auch ziemlich beeindruckt von Neuralink. Auch ein Unternehmen, das öfter mal in Zusammenhang gebracht wird mit Elon Musk. Du bist Quantenphysiker, ursprünglich. Wie bist Du zu OpenAI gekommen? Was an dieser Ausbildung, die Du in Deutschland genossen hast – insofern bist Du fast der personifizierte Brain-Drain, über den sich deutsche Politiker beschweren – war relevant für deinen Weg? Wie bist Du zu OpenAI gekommen?

Johannes Otterbach: Hervorragende Frage. Erst einmal, vielen Dank für die Einladung. Erst einmal auch Hallo in die Runde. Ja, wie bin ich bei OpenAI gelandet? Was ist Machine Learning Research und wie bin ich da am Ende wirklich hingekommen? Ich glaube, die Ausbildung in Deutschland habe ich insofern wirklich genossen, weil es eine sehr grundlegende Ausbildung ist. Es wird viel in die Tiefe gegangen. Es wird viel von einem erwartet. Es wird auch viel Wissen transferiert. Eben auch zu einem extrem positiven Kostenaspekt. Wenn man sich einfach mal den Kostenaspekt einer guten Ausbildung in den USA anguckt, gegen den Kostenaspekt, den es in Deutschland gibt, ist das nicht vergleichbar. Viele meiner Kollegen haben sehr große Kredite, Studienkredite. Normalerweise in der Größenordnung von mehreren Hunderttausend US-Dollar. Das braucht natürlich auch Jahre Zeit, um das abzubezahlen, um eben dorthin zu kommen. Wobei, man kann zwar sagen, dass Forschungsinstitute, wie Harvard und MIT vielleicht hervorragende Ausbildungen geben. Aber eben auch zu diesem großen Kostenaspekt. Wohingegen in Deutschland, wir eine sehr viel breitere Ausbildungsbasis haben und damit einfach auch viel dadurch erforschen können. Darüber hinaus ist es auch natürlich so, dass ich das genossen habe, durch die deutsche Forschung gelaufen zu sein. Dass die Ausbildung sehr gut ist, findet Anklang in der ganzen Welt. So konnte ich dann in der amerikanischen Forschungsumgebung Fuß fassen.

Und ich bin dann eben dann in Boston gelandet und habe von dort aus angefangen, mich ein bisschen breiter aufzustellen und zu schauen, was es außer der Forschung noch so gibt. Damit gab es dann direkt die Verknüpfung ins Silicon Valley. Wenn man einmal in den USA ist, an einem renommierten Forschungsinstitut tätig ist, dann sind auch die Verbindungen ins Silicon Valley da. Da kommt man dann damit da hin.

Philippe Lorenz: Du hast promoviert in Kaiserslautern?

Johannes Otterbach: Genau.

Philippe Lorenz: Du bist danach als Post-Doc nach Harvard gegangen. Dort bist Du in Kontakt gekommen mit Unternehmen, die im Silicon Valley tätig sind?   

Johannes Otterbach: Richtig.

Philippe Lorenz: Wie hat das funktioniert? Gibt es dort Netzwerke? Wird ein solcher Transfer von diesen Universitäten irgendwie angeregt?

Johannes Otterbach: Ja, das geht in beide Richtungen. Gerade solche Institute wie Harvard, Stanford, Princeton, Columbia, die haben natürlich ein sehr hohes Ansehen. Firmen im Silicon Valley wissen auch, dass diese Universitäten viel internationales Talent anziehen. Diese Firmen gehen dann einfach wirklich an diese Career Fairs, diese Job-Fairs, und stellen sich eben den Studierenden vor und versuchen dann direkt die Graduierten, oder die Leute die gerade dann nächstes Jahr fertig werden, abzugreifen. Es geht erstmal darum, sich als Firma vorzustellen. Sich dann die Leute anzueignen mit einem Internship und direkt an die Firma zu binden. Dann gibt es auch direkt einen Transfer.

Philippe Lorenz: Was war deine erste Station, nach deinem Forschungsaufenthalt?

Johannes Otterbach: Meine erste Station nach meinem Forschungsaufenthalt war in der Tat eine Firma im Silicon Valley: Palantir.

Philippe Lorenz: Die Antithese zu OpenAI könnte man überspitzt sagen.

Johannes Otterbach: Könnte man überspitzt sagen, muss man aber nicht.

Philippe Lorenz: Okay.

Johannes Otterbach: Allerdings, ja. Palantir war an einer Career Fair da. Ich bin dort hingegangen und hatte natürlich dann das Glück gehabt, dass ich mich mit jemandem getroffen habe, mit dem ich direkt auf einer Wellenlänge war. Der mich dann angestellt hat und dann bin ich quasi ins Silicon Valley reingerutscht.

Philippe Lorenz: In welchem Arbeitsumfeld warst Du da tätig? Was konntest Du mitnehmen aus deiner Ausbildung? Was musstest Du vielleicht hinzuerwerben?

Johannes Otterbach: Was auf jeden Fall sehr wichtig ist, ist die Art und Weise zu abstrahieren, um sich mit komplexen Sachverhalten auseinandersetzen zu können. Die andere Eigenschaft war, überzeugend darzustellen, dass man schnell Sachen lernen kann; dass man unbekannte Konzepte schnell aufarbeiten und schnell dazu lernen kann. Die Firmen im Silicon Valley wissen oftmals, dass gerade Quereinsteiger natürlich nicht notwendigerweise die Hardskills mitbringen. Sondern dann wird da ein Vertrauensvorschuss geleistet und gesagt, "Du kannst uns demonstrieren, dass Du wirklich mit dieser Komplexität umgehen kannst und wir vertrauen dir einfach, dass Du auch schnell genug lernen kannst." Das versucht man zu demonstrieren.

Philippe Lorenz: Vielleicht noch einmal, um klarzustellen, in welcher Rolle hast Du da gearbeitet? Was hat vielleicht als Quantenphysiker gefehlt? 

Johannes Otterbach: Angefangen habe ich da als Software-Engineer, speziell zum Testen von großangelegten Machine Learning Systemen.

Philippe Lorenz: Okay.

Johannes Otterbach: Das lässt sich damit erklären, dass Palantir für große Datenverarbeitung bekannt ist. Damit hängt zusammen, dass diese Systeme oftmals in sehr unvorhergesehenen Arten und Weisen einfach zusammenbrechen. Die Server fallen aus, die Software macht einen Shutdown, der Server geht unter. Sehr komplexe Sachverhalte. Dann hat man als Physiker den Vorteil, dass man es gewöhnt ist, sich mit solchen komplexen Sachverhalten auseinanderzusetzen und Hypothesen zu erstellen, warum das passiert sein könnte. Diese Eigenschaft, dass diese Hypothese etwas ist, das ich testen kann, diesen Blickwinkel kann ich mit einbeziehen. Mir fehlte aber noch das Wissen, wie ich diese Hypothese wirklich testen kann. Wie kann ich meine Software, meinen Code so schreiben, dass ich das auch wirklich testen kann? Das musste ich mir eben selbst noch aneignen.

Philippe Lorenz: Du musstest Programmieren lernen, noch einmal?

Johannes Otterbach: Ich musste Programmieren lernen, von Grund auf. Es gibt den Unterschied zwischen, was oftmals dargestellt wird, zwischen Hacken und Software-Engineering oder Software-Entwicklung. Das sind zwei unterschiedliche Sachen. In der Informatik lernt man oftmals nicht die Software-Entwicklung an sich. Sondern man lernt, wie man ein bisschen programmiert und im Prinzip Code zusammenschreibt, der funktioniert. Das heißt aber noch nicht, dass man jetzt wirklich einen produktionsmäßig hochqualitativen Code produzieren kann. Das muss man wirklich erst lernen.

Philippe Lorenz: Das hast Du dort gelernt. Das hast Du sicherlich bei den weiteren Stationen auch gelernt. Jetzt arbeitest Du bei Open AI. Warum arbeitest Du bei OpenAI? Warum arbeitest Du nicht bei anderen Unternehmen? Google? Oder anderen Tech-Konzernen, die auch im Silicon Valley beheimatet sind? Die Dir sicherlich auch Möglichkeiten eröffnen würden. Warum OpenAI?

Johannes Otterbach: Ich glaube, es hat zwei Hauptgründe. Auf der einen Seite habe ich Physik studiert und meinen Doktortitel darin gemacht, weil ich einfach an den fundamentalen Fragen des Universums interessiert bin. OpenAI hat sich auch als Teil seiner Mission das Erstellen einer Künstlichen Intelligenz oder einer menschenähnlichen Künstlichen Intelligenz als Aufgabe gestellt. Und das wirft natürlich Fundamentalfragen auf: Was ist Intelligenz eigentlich? Was heißt es, menschliche Intelligenz zu haben? Das ist wirklich noch ein offenes Problem. Das andere, das mich an OpenAI gereizt hat, ist einfach die laserscharfe Fokussierung auf ein Problem, dessen Lösung bis auf weiteres ungewiss ist. Sie haben als Non-Profit angefangen, haben das alles also offen gemacht, ohne irgendwelche kommerziellen Schattenspiele nebenbei. Es musste nicht irgendwie versucht werden, dabei Geld zu machen, um diese Entwicklung voranzutreiben, sondern es wurde dann einfach durch Non-Profit-Gelder gefördert. Das hat natürlich in dem Moment auch etwas Schönes für die Community und für die Menschheit als Ganzes getan.

Philippe Lorenz: Als kleiner Vorgriff, OpenAI hat die eigene Struktur verändert. Das werden Sie wahrscheinlich auch mitbekommen haben. Darauf werden wir später eingehen. Seit 2015 gibt es die Organisation. Zu welchem Zeitpunkt bist Du zu OpenAI gekommen? 

Johannes Otterbach: Ich habe im Frühling 2018 angefangen. Also deutlich vor der Umstrukturierung.

Philippe Lorenz: Vor der Umstrukturierung. Woran arbeitest Du bei OpenAI? Wie setzt Du deine Skills ein? Du hast von laserscharfem Fokus gesprochen, der darauf aus ist, Human Like Intelligence zu erforschen. Wo ordnest Du dich dort ein? Woran arbeitest Du?

Johannes Otterbach: Also OpenAI hat ja verschiedene Teams. Ich arbeite dort in einem Forschungs- und Entwicklungsteam, das wirklich an neuen Algorithmen forscht. Man kann sich die Frage stellen, was kommt nach GPT-2? Was kommt nach Dota2? Was sind diese Algorithmen, wo stoßen sie an ihre Grenzen? Was können sie nicht? Wie können wir die modernen Algorithmen verbessern, um potenziell mehr Fähigkeiten zu erlangen, potenziell einfach schneller zu lernen, mit weniger Daten zu lernen oder vielleicht auch weniger rechenintensiv zu sein? Dort ordne ich mich ein. Was wir in dem Feld speziell machen ist sehr viel Unsupervised Learning. Das bedeutet, dass der Algorithmus von Daten lernen kann, die keine Label haben, die keine Ja-Nein-Antwort haben. Das sind rohe Daten und man muss erstmal eine Frage stellen, um die Daten zu verarbeiten und damit eine Antwort zu erlangen. Das heißt, wie kann ich von diesen rohen Daten etwas lernen? Wie können die Algorithmen so etwas lernen?

Philippe Lorenz: Vielleicht stellen wir die Details und technischen Komponenten des Supervised Learning und Unsupervised Learning erstmal zurück. Du bewegst dich eigentlich an der Speerspitze der aktuellen Forschung. Was unterscheidet Euch als AI-Research-Lab denn in Fragen der Algorithmenentwicklung von einem Forschungsinstitut an einer Universität ? 

Johannes Otterbach: Ich glaube, das sind zwei Sachen. Einmal die Tatsache, dass wir nicht notwendigerweise einen extrem hohen Druck haben, akademische Papiere zu veröffentlichen. Das heißt, wir können einfach auch mal sagen, wenn etwas mal nicht funktioniert. Dann können wir es auch einfach zur Seite legen und das sein lassen. Wohingegen es in der Forschung vor allem davon abhängt, dass ich wirklich auch weiterhin veröffentliche. Auf der anderen Seite sehe ich auch den Zugang zu Rechenkapazität. Das kommt mit dazu. Ich glaube, das sind so die zwei Hauptunterschiede, die wir und  normale, akademische Institute haben.

Philippe Lorenz: Ist es so, dass Ihr eure Recheninfrastruktur auch vor Ort aufstellt? Oder geht Ihr auf Cloud-Kontingente und mietet euch Rechenleistung? Das ist ja ein Hemmschuh für die akademische Wissenschaft, diese Mittel aufzubringen, um beides darzustellen.

Johannes Otterbach: Ja, ich meine, teilweise sind da schon Cloud-Infrastrukturen dabei. Ansonsten geht das einfach auch nicht.

Philippe Lorenz: Du sprachst davon, dass ihr der Disziplin des Unsupervised Learnings viel Beachtung schenkt. Supervised Learning, vielleicht kannst Du das kurz einordnen, anhand von Beispielen? Die meisten Daten, die seit 2012 verwendet wurden, waren im Bereich des Supervised Learnings. Dort labeln Menschen bestimmte Daten, versehen sie mit bestimmten Kennzeichen – zum Beispiel Windgeschwindigkeiten, oder die Kategorisierung in Hund oder Katze. Kannst Du vielleicht ein bisschen erklären, warum jetzt dieser Schritt zu nicht gelabelten Daten so relevant für Euch ist?

Johannes Otterbach: Ja. Das Hauptproblem mit gelabelten Daten ist einfach, dass es sehr kostspielig ist, Daten zu annotieren. Wenn ich als Finanzinstitut zum Beispiel versuche, die Kreditwürdigkeit einzuschätzen, muss ich erst Kredite ausgeben und dann beobachten, ob die Kredite zurückgezahlt oder nicht zurückgezahlt werden. Um dann eben damit ein Modell erstellen zu können. Das ist also entweder kostspielig, weil ich Kredite ausgeben muss oder wenn ich andere Daten habe, muss ich jemanden anstellen, der mir dann wirklich durch diese Daten durchgeht und diese bewertet. Das ist zum Beispiel bei Amazon-Reviews der Fall: Ist das eine positive Review? Ist das eine negative Review? Die müssen quasi per Hand das Ganze annotieren. Das ist einfach sehr kostspielig. Auf der anderen Seite wissen wir auch, dass wir das als Menschen einfach nicht benötigen. Wir brauchen kein Label, um davon zu lernen. Wir kriegen das irgendwie selbst hin. Wir können uns dieses Beispiel anlesen, wir können uns diese Review anlesen. Wir können uns selbst eine Meinung bilden, ob wir etwas positiv oder negativ bewerten. Wir haben die intrinsische Fähigkeit von diesen ungelabelten Daten zu lernen. Da ist natürlich jetzt die Frage: Wenn wir eine Künstliche Intelligenz herstellen wollen, dann ist es offensichtlich eine Eigenschaft der Intelligenz, dass sie ungelabelte Daten verarbeiten kann. Das ist das große Problem. Das ist noch nicht gelöst. Das hat also eine Relevanz für die Frage: Was ist Intelligenz? Das hat aber auch eine Relevanz für Wirtschaftsunternehmen, die einfach sagen: Wir haben so viele Daten, wir haben aber nicht genügend Geld, um diese mit einem Label zu versehen. Also, was können wir mit den Daten machen?

Philippe Lorenz: Diese Spielart ist besonders rechenintensiv. Kann man das sagen?

Johannes Otterbach: Je nach dem, was Du machen willst, ist es besonders rechenintensiv. Ja.

Philippe Lorenz: Es gab ein Tax Exemption Filing von OpenAI 2017, da wurden die Kosten für die Rechenleistung, den sogenannten "Compute", aufgeführt. Ich glaube, 2016 lagen die bei ungefähr 2,3 Millionen Dollar und in 2017, ein Jahr später, lagen die bei knapp 8 Millionen Dollar. Da kann man den Sprung sehen, den OpenAI aufbringen musste, um für Rechenleistung zu sorgen.

Johannes Otterbach: Ja.

Philippe Lorenz: Es geht um Algorithmen, die schneller lernen, die weniger Daten verbrauchen. Und vielleicht auch weniger Compute. Das hört sich nach der Agenda an, die europäische Politiker sich immer ins Heft schreiben. Wir wollen in Europa eigentlich genau die Art von KI entwickeln die datensparsamer arbeitet, die weniger Hardware braucht. Ihr seid da offensichtlich auch dran?

Johannes Otterbach: Was heißt, wir sind auch dran? Ich glaube, das ist im Allgemeinen eine große Frage, die sich vielen Leuten stellt. Google ist da zum Beispiel auch mit dran. Wenn man sich wirklich überlegt, dass man das ökonomisch relevant machen muss, dann will man die KI natürlich auf das kleine Smartphone schicken. Da kann ich mir keinen Großrechner leisten. Da ist diese Entwicklung schon dahin. Die Frage ist natürlich auch, irgendwann, wenn die Algorithmen immer datenintensiver werden, haben wir nicht mehr genug Daten, um diese Algorithmen zu füttern. Wir wissen auch, dass wir vom Menschen her einfach relativ schnell, innerhalb von ein, zwei oder drei Beispielen etwas lernen können. Komischerweise brauchen die Algorithmen aber deutlich mehr Beispiele, um etwas zu lernen. Da ist die Frage: warum?

Philippe Lorenz: Was macht OpenAI dort besonders? Was unterscheidet euren Ansatz von anderen Wettbewerbern, anderen großen Research-Instituten?

Johannes Otterbach: Ja, ich glaube einfach die Tatsache, dass wir ein bisschen kleiner sind und einfach, das hast Du schon erwähnt, große Modelle bauen und sehr viel auf diese Rechenfähigkeit und Rechenleistung setzen. Wir haben also gesehen, dass über die letzten Jahre bessere Resultate immer mit mehr Rechenleistung einhergingen. Das heißt, über die letzten sieben Jahre gab es im Prinzip ein neues Moore's Law. Für diejenigen, die nicht wissen, was Moore's Law ist: seit den 1960ern, seit der Entwicklung des Transistors, konnte man sehen, dass sich die Rechenleistung alle zwei Jahre verdoppelt hat. Das war eine exponentielle Steigerung in dieser Rechenleistung. Und es hat sich seit 2012 herausgestellt, dass wir wir auch so ein Moore's Law für Rechenleistung für Deep Learning Modelle haben. Allerdings ist dort die Verdoppelungszeit ungefähr 5 Monate statt 2 Jahre. Jetzt hat sich herausgestellt, dass mit dieser Verdoppelungszeit, die neuen Resultate deutlich besser wurden. Mit jeder Verdoppelung wurden immer drastischere, immer bessere Resultate gebaut. Das heißt, es gibt dort einfach eine Korrelation von der Rechenleistung die du reinsteckst und welche Ergebnisse du am Ende rausbekommst. OpenAI hat das relativ früh erkannt und wir haben uns einfach darauf fokussiert. Da setzen wir drauf. Wir versuchen jetzt, möglich große Resultate zu verschiffen.

Philippe Lorenz: So wie ich es verstehe, skaliert das Deep Learning System mit jedem weiteren Datenpunkt. Braucht ihr deshalb diese große Rechenleistung, um immer größere Datenmengen zu errechnen?

Johannes Otterbach: Ja. Es gibt beides. Erst mal brauchst Du mehr Rechenleistung, weil Du einfach die Modelle größer machst. Je größer das Modell ist, desto mehr Speicherplatz brauchst Du. Je mehr Speicherplatz Du brauchst, desto mehr Grafikkarten brauchst Du. Deswegen musst Du einfach deine Cluster und deine Server größer machen. Darüber hinaus, wenn Du mehr und mehr Daten verarbeitest, und eine bestimmte Rechenleistung hast, dann kannst du also eine gewisse Menge an Daten in einer gewissen Zeitspanne durch dein System durchführen. Wenn Du jetzt schneller rechnen willst, musst Du es einfach breiter beziehungsweise größer machen. Nehmen wir das Beispiel Dota 2 und schauen, wie lange das System gelernt hat. Umgerechnet in menschliche Lebenszeit sind das ungefähr Zehntausend Jahre.

Philippe Lorenz: Zehntausend Jahre, die sich die Dota2-Engine an dem Online-Rollenspiel erprobt hat.

Johannes Otterbach: Genau.

Philippe Lorenz: Okay.

Johannes Otterbach: Wenn Du das natürlich in der endlichen Zeit machen willst, sagen wir mal, ein oder zwei Jahre, dann musst Du natürlich dementsprechend viele Rechner zusammenschrauben und das Ganze dann dort rechnen lassen.

Philippe Lorenz: Wenn Du vielleicht noch ein bisschen erklären könntest, was Deep Learning so besonders macht. Das arbeitet sehr stark über statistische Korrelation und Probabilitäten. Dafür wird es ja auch, möglicherweise zu Recht, kritisiert. Es lernt eben nicht, wie ein Kind von einigen wenigen Beispielen, sondern es braucht Millionen von Datensätzen. Es braucht eine wahnsinnige Rechenleistung. Es ist auf ein bestimmtes Feld limitiert in seinem Output. Ohne, dass dieses System wieder auf eine andere Aufgabe trainiert wird und sich der ganze Zyklus wiederholt, ist es nicht fähig zu generalisieren. Deswegen gibt es auch Kritik an eurem Ansatz, der sehr stark auf Deep Learning fokussiert. Kannst Du dazu ein bisschen etwas erklären?

Johannes Otterbach: Ja, klar. Also, dass Deep Learning ganz anders lernt als der Mensch, das glaube ich jetzt auch nicht. Aber das ist eher eine Frage der Philosophie. Deep Learning ist vom Menschen, durch das menschliche Gehirn inspiriert. Du hast die Deep Learning Architekturen. Die haben kleine Einheiten, die entweder an oder aus sind, so ähnlich, wie in deinem Gehirn deine Neuronen. Wenn Du eben viele Neuronen zusammenbaust, produziert dieses Kollektiv an Neuronen relativ relevante Outputs. Das musst Du natürlich trainieren. Du musst also dem neuronalen Netzwerk, das am Anfang erstmal völlig zufällig ist, sagen, dieses statistische Pattern, wenn Du das siehst, dann hast Du etwas entdeckt. Das musst Du dir jetzt einfach verinnerlichen und damit dann arbeiten. Das sieht man auch, wenn Du anfängst, diese neuronalen Netzwerke ein bisschen auseinander zu nehmen und Du etwas findest, wenn bestimmte Neuronen feuern. Da kann man sich angucken, was war denn der Input, der dieses Neuron jetzt zum Feuern gebracht hat? Dann stellt man schon fest, dass diese Modelle dann doch irgendwie etwas haben, was wir auch beim Menschen sehen können beziehungsweise beim menschlichen Gehirn. Da gab es auch eine Arbeit von OpenAI dazu, das sind diese Aktivierungsatlanten. Das kann man schon machen. Der Kritikpunkt, dass das neuronale Netzwerk so viele Daten braucht, ist richtig. Allerdings gibt es eben auch neue Ansätze und da kommt wieder dieses Unsupervised Learning dazu. Wo man sagen kann, wir lernen ja auch erstmal, indem wir einfach in der Welt sind. Uns fallen diese Daten erstmal zu. Wir müssen auch erst mal ein paar Jahre darauf warten, bevor wir irgendwas damit machen können und erst dann können wir wirklich schnell neue Sachen klassifizieren, neue Sachen erfassen und einsortieren. Jetzt stellt sich natürlich die Frage , das hat sich eben auch mit GPT-2 gezeigt, können wir diese Systeme eigentlich nur einmal trainieren? Und dann mit wenigen Daten, relativ schnell, auf eine neue Fähigkeit spezialisieren? Das nennen wir Feintuning. Also fein einstellen. So lässt sich mit vielen, vielen Daten rechnen. Du produzierst ein relativ allgemeines Modell. Dann nimmst Du dir einen relativ kleinen Datensatz, von vielleicht nur ein paar Tausend, ein paar hunderttausend Einträgen. Dann kannst Du dieses große Modell, das vorher mit Millionen oder Milliarden von Datensätzen trainiert wurde, mit diesem Datensatz ein bisschen feiner stellen. Damit lässt sich das Ganze natürlich wieder viel, viel besser amortisieren.

Philippe Lorenz: Das ist euer Ansatz, den Ihr sehr stark verfolgt?

Johannes Otterbach: Das ist ein Teil, dieser Ansatz.

Philippe Lorenz: Ein Teilansatz. Und wie wollt beziehungsweise könnt Ihr mit dieser Forschung, mit diesem Ansatz, die Risiken von menschenähnlicher Künstlicher Intelligenz abfedern? Ihr habt ein Mission Statement, in dem ihr ja davon sprecht, dass ihr den Weg zu menschenähnlicher Intelligenz ebnen und begleiten wollt. Im Zuge dessen teilt ihr auch eure wissenschaftliche Arbeit mit der Öffentlichkeit, um eben diese Safe-AI-Entwicklung zu unterstützen. Wie gehen diese beiden Ansätze zusammen? Ihr arbeitet ähnlich wie große Tech-Unternehmen. Auch auf großen Cloud-Infrastrukturen mit einem sehr datenintensiven Ansatz. Wie wollt ihr damit die Mission erreichen?

Johannes Otterbach: Ich glaube, das muss man beides ein bisschen auseinandernehmen. Die Frage nach der Künstlichen Intelligenz oder nach der allgemeinen Künstlichen Intelligenz ist natürlich eine Frage der ökonomischen Viabilität und der Frage nach einem Powerful Tool, weil Künstliche Intelligenz ein sehr gutes Werkzeug ist, um ökonomisch viele Sachen zu machen. Es gibt verschiedene Ansätze, die dann einfach versuchen auszurechnen, wie groß der ökonomische Impact von einer solchen Künstlichen Intelligenz wäre. Oftmals wird der Vergleich mit der industriellen Revolution gebracht. Jeder versucht natürlich, das zu bauen. Da sind wir natürlich auch mit dabei. Darüber hinaus, sagen wir, okay, wir wollen das natürlich auch sicher gestalten. Damit fahren wir jetzt eine zweigleisige Schiene. Auf der einen Seite wollen wir diese technischen Fähigkeiten nach vorne treiben, weil wir einfach wissen, jemand wird das auf jeden Fall machen. Auf der anderen Seite, wenn wir diese technischen Fähigkeiten haben, können wir auch gucken, wo diese technischen Fähigkeiten falsch laufen und dann gegensteuern. Die Öffentlichkeit informieren, was unser Policy-Team zum Teil macht. Während unser Safety-Team daran arbeitet zu erkennen, was mit einer neuen Fähigkeit schief gehen könnte.

Philippe Lorenz: Das heißt, Ihr versucht euch an die Speerspitze der technischen Entwicklung zu setzen, diese Technologie zu entwickeln, zu erforschen und gleichzeitig die Risiken abzufedern. Das ist das Konzept.

Johannes Otterbach: Das ist das Konzept. Ich meine, anders ist es wahrscheinlich auch schwer machbar. Man versucht die technischen Fähigkeiten eines Systems zu untersuchen, hat aber nicht die Fähigkeit, ein solches technisches System zu bauen. Dann ist es schwierig, die Konsequenzen abzuschätzen oder zu wissen, wie man gegensteuern kann. Das ist Teil dieses zweigleisigen Approaches.

Philippe Lorenz: Ein Beispiel, das diese Zweigleisigkeit, glaube ich, ganz gut illustriert, ist eure Sprach-Engine oder eure Text-Engine, GPT-2. Also dieses zweite Modell der GPT-Klasse. Ihr habt euch größere Kritik zugezogen. Im Februar 2019 habt Ihr diese Engine veröffentlicht, beziehungsweise Ihr habt demonstriert, was sie kann. Ich sagte in den einleitenden Worten, dass es darum geht, dass man dieses System mit bestimmten Inputs füttert, sprachlichen Inputs, Text. Im Kontext dieses Eingabetextes entwickelt dieses System automatisch selbst ein paar Absätze an Text. Ihr seid damit an die Öffentlichkeit gegangen und habt Euch dazu entschieden, entgegen des bisherigen Standards, dieses System oder dieses Modell vom Code her nicht gleich offenzulegen. Ihr habt das verschlossen gelassen. Viele Stimmen wiesen auf euren Namen hin, "Open"AI, der mit dieser Vorgehensweise nicht im Einklang stehe. Vielleicht kannst Du uns kurz erklären, wie dieses System funktioniert. Und im Anschluss würde ich gern von Dir wissen, warum habt ihr euch dagegen entschieden, den Source Code zu veröffentlichen?

Johannes Otterbach: Ja, vielleicht fange ich mit dem zweiten Teil erstmal an. Wenn man unser Mission Statement mal genau liest, dann heißt es, wir entwickeln KI, um sie der Menschheit bereitzustellen. Allerdings ist da auch der ganz große Aspekt der Sicherheit mit dabei. Und darunter fällt dann eben auch, das steht auch in unserem Mission Statement, dass das unter Umständen dazu führen kann, dass wir verschiedene Sachen nicht veröffentlichen oder nicht der Öffentlichkeit bereitstellen, weil wir einfach glauben, dass es unter Umständen zu gefährlich sein kann. Jetzt stellt sich natürlich die Frage, wie weiß man, ob das jetzt gefährlich ist oder nicht? Den Zeitpunkt zu verschlafen ist sehr wahrscheinlich. Aber lieber verpasse ich den Zeitpunkt, in dem ich das zu früh mache, als dass ich den Zeitpunkt verpasse, es überhaupt zu machen. Und dann eine Reißleine ziehen zu müssen. Wir haben auch relativ früh einfach gesagt, dass das Ganze ein Experiment ist. Wir wissen nicht, ob das wirklich gefährlich ist. Das haben wir niemals so gesagt. Wir haben gesagt, wir haben Bedenken. Wir wissen es einfach nicht und deswegen halten wir es ein bisschen zurück und wollten dann auch mit Partnern zusammenarbeiten, um zu sehen, wie wir das Ganze risikofrei gestalten können, beziehungsweise das Risiko mindern und einfach mit Leuten zusammenarbeiten. In der Richtung.

Philippe Lorenz: Das Interessante an der Kritik ist eigentlich, dass sie aus eurer Community kam. In dem Bereich, in dem ihr das untersucht oder erforscht habt. Diese bestimmte Spielart bezeichnet man, glaube ich, als Natural Language Processing. Ihr seid nicht die einzigen, die an solchen Systemen arbeiten, sondern es gibt eine Reihe anderer Researcher und Researcherinnen, die sich verschrieben haben, solche Systeme zu entwickeln. Besonders aus der Ecke kam Kritik. Besonders die haben gesagt, passt mal auf, Ihr müsst, genauso wie wir in der Wissenschaft, eure Resultate offenlegen. Ihr habt einen Schwenk gemacht im Nachhinein. Ihr habt dieses Modell Stück für Stück in gewissen Modellgrößen veröffentlicht, den Sourcecode. Wieso habt Ihr euch dazu entschieden? War der Druck zu groß? Warum habt Ihr das gemacht?

Johannes Otterbach: Ich glaube, da war kein zu großer Druck. Ich meine, dass wir wirklich aus der Richtung Gegenwind bekommen haben, das war im Vorhinein nicht abzusehen. Wir wussten nicht, woher der Gegenwind kommt. Wir wussten, dass wir Gegenwind kriegen werden, weil wir einfach eine Norm gebrochen haben, die für die Wissenschaft gilt. Danach sind wir mit den Leuten ins Gespräch gekommen. Viele Forscher wollten einfach verstehen, warum wir uns so entschieden haben. Was unsere Bewegungsgründe waren. Wir haben dann auch viel mit diesen Leuten gearbeitet. Seitdem hat sich dann wirklich einiges getan. Es gab Anschlussforschung, die auch versucht hat dieses Modell zu replizieren. Das wurde dann eben auch nicht veröffentlicht, weil die Leute mit uns in den Diskurs gekommen sind. Viele Leute haben sich damit auch selbst überzeugt, dass es sehr überzeugende Texte schreiben kann. Wie Du schon gesagt hast, wir haben es gestaffelt veröffentlicht. Wir haben jetzt auch gerade vor kurzem das größte Modell released, das GPT-2 vollkommen veröffentlicht.

Philippe Lorenz: Okay.

Johannes Otterbach: Aber eben auch mit der Tatsache, dass wir Veröffentlichungspartner dabei hatten, die das Modell als Drittpartei untersucht haben und auch zu dem Schluss gekommen sind, dass es zum Teil überzeugende Textstücke produzieren kann, die glaubhaft sind. Jetzt aber dadurch, dass wir dieses gestaffelte System so rausgebracht haben, haben wir auch die Öffentlichkeit informiert. Das ist gerade auch Teil der Mission. Wir warnen vor den Risiken.

Philippe Lorenz: Mit wem habt ihr da zusammengearbeitet, um diese Risiken zu antizipieren? Als dritten Partnern?

Johannes Otterbach: Es gibt da ein paar und das ist auch in dem letzten Blogpost zu GPT-2 aufgeführt. Jetzt schlägst Du mich natürlich mit den Namen.

Philippe Lorenz: Waren das Wissenschaftler?

Johannes Otterbach: Da waren Wissenschaftler, Forschungsinstitute und NGOs dabei, die sich damit identifiziert hatten. Die Art und Weise, wie wir das gemacht haben, ist: Wir haben den Leuten einen Zugang erstellt und dann wurde damit zusammen ein kleiner Vertrag unterzeichnet, in dem festgehalten ist, dass wir den Leuten den Zugang zu unserem Modell geben. Wir konnten damit auch die Zugangskontrolle gewähren und sagen, diesen Leuten geben wir Zugang, diesen Leuten geben wir keinen Zugang. Das sind wirklich auch Proposals, mit denen wir wirklich etwas anfangen können. Das sind jetzt wirklich wissenschaftliche Proposals, das sind nicht industrielle Proposals, die dabei herauskommen. Und dann haben wir einfach mit diesen Forschern zusammengearbeitet. Viele dieser Forscher haben einfach Resultate erzielt, die überzeugend waren.

Philippe Lorenz: Ihr hattet konkret Angst vor was? Im Februar.

Johannes Otterbach: Konkret Angst – wir haben einfach die Sorge damit gehabt, dass wir nicht wussten, was das Modell am Ende produzieren kann. Wir haben ja geschrieben, wir haben es auf Text trainiert, der einfach vom Internet runterkam. Wir wissen alle, dass das Internet teilweise sehr dubiose Texte enthält. Wir wussten nicht, was das Modell davon enthält oder was es generieren wird in der Richtung. Wir haben Sorgen gehabt, dass es unter Umständen von anderen Leuten verwendet wird, um Desinformationen zu verbreiten. Stichwort Fake News. Was ja jetzt auch in Deutschland eine Rolle spielt. Wir wussten einfach nicht um die Kapazitäten und Fähigkeiten dieses Modells, solche Texte zu produzieren. Davor haben wir uns einfach gesorgt.

Philippe Lorenz: Wie ist eure Einschätzung jetzt rückblickend darauf? Würdet Ihr in Zukunft in derselben Art vorgehen? Oder gibt es Überlegungen, es anders zu machen?

Johannes Otterbach: Ich meine, man lernt viel. Diese gestaffelte Veröffentlichungsstrategie ist glaube ich schon eine, die sich jetzt auch andere Unternehmen und andere Think Tanks aneignen. Ich glaube, damit kann man schon weiter kommen. Ob das jetzt wirklich gerechtfertigt war, das ist eine andere Frage. Allerdings kann ich dich darauf hinweisen, dass einer der Think Tanks, die wirklich diese große Modell, das große GPT-2 analysiert hat, sich das wirklich genau angeguckt hat. Kann das ein Finetuning auf generierte Texte von renommierten Zeitungen machen? Es kam dann heraus, dass es fast überzeugend ist. Ich glaube es war 51% zu 49%, in der Größenordnung.

Philippe Lorenz: Interessant. Der New Yorker hat auch über das Modell geschrieben, hat sogar erprobt, ob es den Journalismus in Zukunft übernehmen könnte. Sehr interessanter Artikel. Im selben Jahr ist euch noch etwas passiert, wofür Ihr euch noch größere Kritik eingehandelt habt: Microsoft hat an die Tür geklopft und plötzlich hat eure Leitung verkündet, dass ihr euch für eine Kooperation mit Microsoft öffnet. Ihr hattet ein paar Monate davor tatsächlich eure Unternehmensstruktur verändert. Ihr seid als Not-For-Profit gestartet in 2015 und habt euch dann entschieden, die Struktur zu wechseln. Ihr habt jetzt zwei Arme, wie ich das so bewerten kann. Ihr habt einen For-Profit-Arm und ihr habt einen Not-For-Profit-Arm. Der Not-For-Profit-Arm kontrolliert den For-Profit-Arm.

Johannes Otterbach: Korrekt.

Philippe Lorenz: Ich frage mich, ob der For-Profit-Arm die Mission Statements noch berücksichtigt. Das (Anm. der For-Profit-Arm) hat eben das Investment von Microsoft ermöglicht. Microsoft ist mit einer Milliarde Dollar in diese Kooperation gegangen. Das hat, nur aus Berlin jetzt wahrgenommen, was die Tech-Presse betrifft, für große Aufmerksamkeit gesorgt. Wieso seid ihr die Kooperation mit Microsoft eingegangen?

Johannes Otterbach: Also erst einmal, um etwas klar zu stellen. Ich glaube, dass die verschiedenen aufeinanderfolgenden Ereignisse so vermischt wurden, dass der Eindruck entstand, dass wir viel, viel Kritik für Microsoft bekommen hätten. So viel Kritik haben wir dafür eigentlich gar nicht bekommen. Das muss man ein bisschen klar stellen. Der zeitliche Ablauf der Ereignisse wurde in der Presse etwas verwaschen. Warum das jetzt natürlich passiert ist, ist auch klar. Einfach weil wir, was den Fortschritt in unserem Feld anbelangt, deutlich schneller waren. Wenn man sich die frühen Zeiten anguckt, bei denen ich ja bei OpenAI auch noch nicht da war, wurden von den frühen Gründern zeitliche Vorhersagen über den Fortschritt gemacht, der erreicht werden sollte. Wir waren aber viel, viel schneller als wir es in unseren den Zeitskalen erwartet hatten. Das Problem an der ganzen Geschichte ist, dass wir als Menschen unglaublich schlecht sind, exponentielle Fortschritte abzuschätzen. Das ist uns genauso passiert. Das heißt nach zwei Jahren waren wir schon an dem Punkt angelangt, den wir erst in sechs oder sieben Jahren erwartet hatten. Dementsprechend brauchten wir auch mehr Rechenleistung. Um mehr Rechenleistung zu generieren, brauchst Du natürlich die dementsprechenden Gelder. Du musst das Ganze schneller skalieren, um mit den großen Firmen mithalten zu können. Du musst mehr Talente akquirieren. Das ist natürlich relativ schwierig in dieser Non-Profit-Struktur, weil Du einfach so viel mehr Geld brauchst als wahrscheinlich jedes andere Non-Profit irgendwann mal generiert hat. Es sind einfach unglaubliche Mengen an Geld. Damit hat sich dann auch die Frage gestellt, wie können wir das machen. Ich glaube, da hat unser Vorstandsteam eine super Leistung betrieben und sich da wirklich sehr lange mit auseinandergesetzt. Das Ziel war eine For-Profit-Struktur, die das notwendige Geld durch Investments wie das von Microsoft sicherstellt und gleichzeitig weiterhin unsere Mission in den Vordergrund stellt. Das ist uns hoffentlich in der Richtung gut gelungen. 

Philippe Lorenz: Du nennst es eher große Aufmerksamkeit und nicht unbedingt Kritik. Wir in Europa – vielleicht ist das eine verzerrte Perspektive – sehen das tatsächlich kritisch. Im Silicon Valley selbst wurde es weniger als Kritik gesehen?

Johannes Otterbach: Aus meiner persönlichen Perspektive heraus hatte ich den Eindruck, dass vielen Leuten im Silicon Valley klar ist, wie viel Rechenleistung diese Technologien erfordern. Ich glaube, der Hauptaspekt war die Summe von einer Milliarde Dollar. Was auch für Microsoft einfach viel Geld ist, das dann für ein Investment auf den Tisch gelegt wird.

Philippe Lorenz: Die Kooperation sieht folgende Bestandteile vor: Ihr kooperiert zusammen mit Microsoft in der Erforschung von Artificial General Intelligence. Dafür wird auf dem Cloud-System Azure von Microsoft diese Cloud-Infrastruktur entsprechend skaliert über Rechenleistung. Ihr könnt in Zukunft auch Produkte exklusiv, glaube ich, lizenzieren an Microsoft, die auch auf dem Weg zu Künstlicher, menschenähnlicher Intelligenz, abfallen. Das heißt, für mich sieht es so aus als hättet ihr gleichziehen müssen mit den Labs, die schon Kooperationen haben oder Bestandteile sind von größeren Technologiekonzernen, die die Ressourcen und Infrastrukturen heben können. War das die entscheidende Triebfeder für die Kooperation?

Johannes Otterbach: Auf der einen Seite haben wir über diese Sache mit vielen Cloud-Providern gesprochen. Microsoft ist einfach auch, was wir im Silicon Valley Value "Aligned" nennen. Das heißt, wir haben sehr ähnliche Missionen. Wir denken über die Sicherheit von Künstlicher Intelligenz sehr ähnlich. Wir wollen dementsprechend zusammenarbeiten. Darüber hinaus hat Microsoft auch einfach Erfahrung im Cloud-Computing. Was ja auch nicht zu verheimlichen ist, ist dass wir schon einmal auf Azure gerechnet haben. Als Open AI am Anfang gegründet wurde, war vieles schon auf Azure. Dann ist die Frage, ob es auch andere Hebel gibt, die wir auch noch betätigen müssen. Es ist nämlich die Frage, wenn wir dann so eine Künstliche Intelligenz haben, wie wir diese auch wirklich sicher in die Produktion schicken können. Ich glaube, da hat Microsoft mehr Fähigkeiten als wir sie momentan haben. Da freuen wir uns einfach, mit denen zusammenzuarbeiten in der Richtung.

Philippe Lorenz: Ihr verfolgt den Ansatz, an der Speerspitze der Entwicklung zu stehen und Künstliche Intelligenz zu erforschen, um gleichzeitig die Risiken dieser Technik abzufedern und um die Menschheit vor diesen Risiken zu bewahren. Wie wollt ihr diese Mission aufrecht erhalten, wenn ihr euch gewissermaßen zum Bestandteil eines Industrieunternehmens macht?

Johannes Otterbach: Das muss man jetzt mal ganz klarstellen, dass wir nicht der Bestandteil von Microsoft sind. Wir sind also kein Subsidiary (Anm.: Tochtergesellschaft) oder sonst irgendwas. Wir sind eine unabhängige Entity (Anm.: Einheit, Rechtsgebilde). Das gilt auch in Hinsicht auf die Kommerzialisierung, weil wir sagen, wir lizenzieren das aus. Microsoft ist nur unser präferierter Partner. Das heißt aber nicht, dass wir das exklusiv an Microsoft geben. Das muss auch im gegenseitigen Einverständnis passieren. Microsoft kann nicht einfach kommen und sagen, würden das gern kommerzialisieren. Das kann nicht passieren. Das ist eingegraben in die Unternehmensstruktur von OpenAI und kann so in der Form nicht passieren. An der Speerspitze bleiben, heißt einfach auch mit Compute mitzugehen. Microsoft war daran interessiert, seine Cloud-Infrastruktur zu verbessern und wir haben uns dazu bereit erklärt, ihnen dabei zu helfen, dieses Cloud-Computing zu skalieren und zu verbessern.

Philippe Lorenz: Braucht euer Mission Statement mittlerweile ein Update?

Johannes Otterbach: Ich glaube, da bin ich der falsche Ansprechpartner.

Philippe Lorenz: Die Cloud-Infrastruktur von Microsoft ist kompetitiv und das hat nicht nur OpenAI gemerkt, sondern auch das Pentagon. Das Pentagon hat in einem Wettbewerb eine zehn Milliarden Dollar schwere Cloud-Infrastruktur ausgelobt. Die sogenannte Joint Enterprise Defense Infrastructure, JEDI. Microsoft hat tatsächlich Amazon ausgestochen. Was für viele Industrie-Insider eine Überraschung war. Amazon hostet schon die Daten für die CIA und war gut positioniert, den Zuschlag zu bekommen. Jetzt hat Microsoft zunächst den Zuschlag bekommen. Es ist noch nicht ganz sicher, ob Amazon dagegen klagen wird. Jetzt kam das zum ziemlich ähnlichen Zeitpunkt, ungünstig. Denn man fragt sich jetzt, inwiefern ihr auch Produkte entwickelt, oder Forschung erbringt, die möglicherweise in Zukunft für das Pentagon zugänglich wird. Meine Frage ist: Wie wollt ihr das wiederum vereinbaren?

Johannes Otterbach: Dazu kann ich keinen Kommentar machen. Da bin ich der Falsche den du fragst. Da musst Du an unseren Executive, unseren Vorstand herantreten. Dafür habe ich nicht genug Einblick in unsere Vorstandsentscheidungen.

Philippe Lorenz: Okay. Und als Entwickler. Ich meine, Du bist Entwickler. Das war deswegen nicht die richtige Frage an dich, aber man kennt es von anderen Tech-Unternehmen. Wenn die Nähe zu der Sicherheitsarchitektur in den USA gesucht wird, unter Entwicklern hat das oftmals zu Diskussionen geführt. Ist so etwas überhaupt spürbar gewesen bei euch? Redet man über diese zugegebenermaßen fernliegende Option; ist das ein Thema?

Johannes Otterbach: Da kann ich jetzt eigentlich keinen Kommentar dazu zu machen.

Philippe Lorenz: Okay. Wenn wir jetzt das Silicon Valley verlassen; Du hattest auch davon gesprochen, dass der Blick oftmals unterschiedlich ist. Wir [in Europa] haben die Kollaboration [mit Microsoft] kritisch wahrgenommen. Im Silicon Valley selbst hat man den Eventualitäten, dass man Hardware braucht eben entgegen gesehen, meinte, das sei ein logischer Schritt. Wenn Du rüber guckst, aus dem Silicon Valley, als Deutscher – wenn Du diesen dritten europäischen Weg beleuchtest. Es wird oftmals vom Third Way gesprochen, der zwischen den USA und China so ein bisschen seinen Weg sucht. Die europäische Kommission priorisiert Datensicherheit und Datenschutz als für uns höchste Güter und daran richten wir auch die KI-Entwicklung aus. Das ist ein fundamental anderer Ansatz als der Ansatz im Silicon Valley. Wie betrachtest Du diesen Ansatz? Was hältst Du von der Wettbewerbsfähigkeit dieses Ansatzes? Wie wird das überhaupt diskutiert? Vielleicht kannst Du uns darüber einen Einblick geben.

Johannes Otterbach: Also, wie Du ja weißt, bin ich relativ daran interessiert, zu sehen, wie Europa in der Richtung seinen Weg findet. Deswegen passe ich da immer so ein bisschen auf, was hier passiert. Ich bin bestimmt nicht hundert prozentig up-to-date zu jedem Zeitpunkt, aber wahrscheinlich deutlich mehr als der normale Silicon Valley Mitarbeiter. Im Großen und Ganzen spielt Europa auf der Landkarte fast keine Rolle. Wenn Du Gespräche mit deinen Kollegen hast, da passiert nicht viel. Der große Fokus liegt wirklich auf den dominanten Gegengewichten, die aus China kommen, aus der Richtung. Die einzige Ausnahme, die Europa wirklich geschafft hat, war die GDPR, einfach dadurch, dass Europa ein großer Wirtschaftsraum ist. Und sich die Silicon Valley-Unternehmen einfach an diese Datenschutzgesetze halten müssen. Das hat Eindruck gemacht. Was die Künstliche Intelligenz angeht, das ist noch nicht ganz klar, wie sehr sich da Europa ins Gewicht legen kann. Europa ist von meiner Ansicht her ein sehr guter Regulator. Da ist definitiv die Fähigkeit da, etwas zu machen. Allerdings muss das einfach auch mit dem entsprechenden wirtschaftlichen Gewicht gepaart werden. Da glaube ich, fehlt es den Europäern momentan an Gewicht, um das ökonomisch durchzuziehen.

Philippe Lorenz: Europa spielt keine Rolle. Da unterhält man sicher eher über China? Oder wo geht der Blick hin?

Johannes Otterbach: Der Blick geht wirklich nach China, das ist das Thema Nummer eins. Weil es wirklich darum geht, das Gegengewicht zu China aufzusetzen. Das merkt man auch schon an den Handelskriegen, die es momentan gibt. Aber einfach auch dadurch, wie einfach mehr und mehr wertvolle Firmen, gerade auch im Technologiesektor, aus China kommen.

Philippe Lorenz: Nehmt ihr zur Kenntnis, dass zumindest die Talentbasis oftmals aus Europa kommt? Du verkörperst diese auch. Wird das zumindest gesehen? Amazon zum Beispiel ist jetzt in die Nähe von Tübingen gegangen, kooperiert jetzt stärker dort mit dem Max-Planck-Institut. Man könnte auch sagen, dass Tesla sich auf den Weg nach Deutschland gemacht hat, um Ingenieure zu binden. Ist das etwas, was zumindest wahrgenommen wird?

Johannes Otterbach: Das wird mehr als nur wahrgenommen. Silicon Valley ist natürlich sehr Talente-hungrig und weiß auch wirklich, dass viele dieser Talente aus Europa kommen. Das ist natürlich jetzt gerade in der momentanen politischen Lage in den USA relativ schwierig. Da gibt es verschiedene Animositäten mit der momentanen Regierung und Silicon Valley in dieser Richtung. Die Einwanderungsgesetze schlagen dann schon irgendwie auf das Silicon Valley durch. Der Eindruck ist schon da. In der Richtung hat Europa schon Gewicht, was das Hirn angeht.

Philippe Lorenz: Okay, aber Europa ist im Hintertreffen, was Daten betrifft. Kann man das so pauschal sagen? Wir machen mal die Dichotomie auf: Man braucht viele Daten, sonst kann man keine KI-Systeme entwickeln. Trifft das tatsächlich so zu?

Johannes Otterbach: Ich glaube, das trifft so nicht zu. Ich glaube, das ist einfach der Grund: Es wird in der Forschung häufig so gesehen, dass wenn man mehr Daten hat, man bessere Sachen machen könne. In der Konsequenz gibt es weniger Incentives zu fragen, was kann ich mit meinen wenigen Daten machen oder wie kann ich lernen, trotz der Privatsphäre? Wie kann ich die Privatsphäre schützen und immer noch lernen? Da gibt es verschiedene Ansätze, die man verfolgen kann. Ich glaube, wenn sich verschiedene Forschungsinstitute auf diese Technologien fokussieren, dann ist da auch viel zu machen.

Philippe Lorenz: In Europa?

Johannes Otterbach: In Europa.

Philippe Lorenz: Aber ihr [in den USA] arbeitet auch daran. Für mich ist immer die Frage, wie man diesen Rückstand, den man möglicherweise jetzt schon hat, aufholen möchte, wenn ich mich mal aus dem Fenster lehne.

Johannes Otterbach: Ich glaube, man kann zwei verschiedene Punkte machen. Es gibt Leute, die daran arbeiten, weil sie es einfach müssen, weil sie viel auf Sensorik arbeiten, so wie Google, die wollen wirklich alles auf diesen Smartphones machen. Das heißt, dort kommt das wirklich aus einem wirtschaftlichen Aspekt heraus. Oder aber man kann es einfach aus der menschlichen Dimension machen. Wie können wir KI entwickeln, die Privatsphäre schützt? Ich glaube, das sind einfach zwei verschiedene Blickwinkel, die man da haben kann. Ich persönlich denke im Moment, dass der Blickwinkel Privatsphäre, zumindest in der akademischen Forschung in den USA und in China, auch viel zu kurz kommt. Ich glaube, da gibt es einfach Potentiale.

Philippe Lorenz: Wenn Du jetzt auf Europa blickst, würdest Du zurückgehen?

Philippe Lorenz: Europa spielt keine Rolle. Da unterhält man sicher eher über China? Oder wo geht der Blick hin?

 

Johannes Otterbach: Der Blick geht wirklich nach China, das ist das Thema Nummer eins. Weil es wirklich darum geht, das Gegengewicht zu China aufzusetzen. Das merkt man auch schon an den Handelskriegen, die es momentan gibt. Aber einfach auch dadurch, wie einfach mehr und mehr wertvolle Firmen, gerade auch im Technologiesektor, aus China kommen.

 

Philippe Lorenz: Nehmt ihr zur Kenntnis, dass zumindest die Talentbasis oftmals aus Europa kommt? Du verkörperst diese auch. Wird das zumindest gesehen? Amazon zum Beispiel ist jetzt in die Nähe von Tübingen gegangen, kooperiert jetzt stärker dort mit dem Max-Planck-Institut. Man könnte auch sagen, dass Tesla sich auf den Weg nach Deutschland gemacht hat, um Ingenieure zu binden. Ist das etwas, was zumindest wahrgenommen wird?

 

Johannes Otterbach: Das wird mehr als nur wahrgenommen. Silicon Valley ist natürlich sehr Talente-hungrig und weiß auch wirklich, dass viele dieser Talente aus Europa kommen. Das ist natürlich jetzt gerade in der momentanen politischen Lage in den USA relativ schwierig. Da gibt es verschiedene Animositäten mit der momentanen Regierung und Silicon Valley in dieser Richtung. Die Einwanderungsgesetze schlagen dann schon irgendwie auf das Silicon Valley durch. Der Eindruck ist schon da. In der Richtung hat Europa schon Gewicht, was das Hirn angeht.

 

Philippe Lorenz: Okay, aber Europa ist im Hintertreffen, was Daten betrifft. Kann man das so pauschal sagen? Wir machen mal die Dichotomie auf: Man braucht viele Daten, sonst kann man keine KI-Systeme entwickeln. Trifft das tatsächlich so zu?

 

Johannes Otterbach: Ich glaube, das trifft so nicht zu. Ich glaube, das ist einfach der Grund: Es wird in der Forschung häufig so gesehen, dass wenn man mehr Daten hat, man bessere Sachen machen könne. In der Konsequenz gibt es weniger Incentives zu fragen, was kann ich mit meinen wenigen Daten machen oder wie kann ich lernen, trotz der Privatsphäre? Wie kann ich die Privatsphäre schützen und immer noch lernen? Da gibt es verschiedene Ansätze, die man verfolgen kann. Ich glaube, wenn sich verschiedene Forschungsinstitute auf diese Technologien fokussieren, dann ist da auch viel zu machen.

 

Philippe Lorenz: In Europa?

 

Johannes Otterbach: In Europa.

 

Philippe Lorenz: Aber ihr [in den USA] arbeitet auch daran. Für mich ist immer die Frage, wie man diesen Rückstand, den man möglicherweise jetzt schon hat, aufholen möchte, wenn ich mich mal aus dem Fenster lehne.

 

Johannes Otterbach: Ich glaube, man kann zwei verschiedene Punkte machen. Es gibt Leute, die daran arbeiten, weil sie es einfach müssen, weil sie viel auf Sensorik arbeiten, so wie Google, die wollen wirklich alles auf diesen Smartphones machen. Das heißt, dort kommt das wirklich aus einem wirtschaftlichen Aspekt heraus. Oder aber man kann es einfach aus der menschlichen Dimension machen. Wie können wir KI entwickeln, die Privatsphäre schützt? Ich glaube, das sind einfach zwei verschiedene Blickwinkel, die man da haben kann. Ich persönlich denke im Moment, dass der Blickwinkel Privatsphäre, zumindest in der akademischen Forschung in den USA und in China, auch viel zu kurz kommt. Ich glaube, da gibt es einfach Potentiale.

Philippe Lorenz: Wenn Du jetzt auf Europa blickst, würdest Du zurückgehen?

Zuschauer: Unter welchen Bedingungen?

Philippe Lorenz: Über Bedingungen können wir gleich sprechen.

Johannes Otterbach: Ich meine, ich würde nicht hier sitzen, wenn ich Europa nicht mögen würde. Von daher soll das deine Frage beantworten.

Philippe Lorenz: Alles klar. Vielen Dank schon mal für den ersten Teil.

[Applaus]

Gast 1: Ich bin aus der Automobil-Branche aus München. Wenn bei uns KI eingesetzt würde und von  Hackern manipuliert wird, mit falschen Informationen, dann kann es zu Schäden für menschliche Leben kommen. Meine Frage ist: Sie haben gesagt, menschenähnliche KI sei das Ziel. Hat KI auch eine Identität wie Menschen?

Philippe Lorenz: Wir fangen mit den einfachsten Fragen an.

Johannes Otterbach: Definitiv.

Philippe Lorenz: Vielen Dank.

Johannes Otterbach: Ich bin kein Rechtswissenschaftler. Von daher ist es wirklich eine schwierige Frage für mich. Ich kann das wirklich nur so aus einer philosophischen Perspektive sehen. Philosophisch gesehen, wenn ich jetzt zum Beispiel mit unserem GPT-2-Modell rede, ich schreibe ihm was und gucke mir einfach an, was es antwortet. Das ist manchmal schon ein bisschen schaurig. Es kamen irgendwelche Sachen raus, die ich wirklich nicht von einem Computer erwartet hätte. Ist das jetzt wirklich eine Art von Bewusstsein oder ist es eine Identität? Das ist schwierig zu beantworten. Ich glaube, vom Rechtssystem her, ist das eine interessante Frage, weil ich glaube, dass wir in der Diskussion wirklich am Anfang sind. Da gibt es wohl einige interessante Aspekte, die diskutiert werden. In den USA läuft es ja wirklich in die Richtung, dass solche Sachen nur dann entschieden werden, wenn es wirklich einen Präzedenzfall gab. Der lässt noch auf sich warten. Im Moment weiß ich nicht, wie das Ganze ausgehen wird. Kann ich auch keine Vorhersage machen.

Gast 1: Also das ist gefährlich, weil wenn beim Autonomous Driving das KI eine falsche Entscheidung trifft, müsste jemand zur Rechenschaft gezogen werden.

Johannes Otterbach: Auf der anderen Seite muss man auch sagen, dass es im Moment auch schwierig ist. Das Auto hat so viele Komponenten von so vielen verschiedenen Herstellern. Welche Komponente dann wirklich versagt hat und wer wirklich verantwortlich ist, wird in den kleinsten Details untersucht. Ich glaube, dass es so etwas Ähnliches auch beim Autonomous Driving passieren wird. Wer ist wirklich dafür verantwortlich?

Gast 2: Ich arbeite hier in Berlin in einer Beratung, aber meine Frage ist eigentlich auch eher philosophisch. Ich weiß, dass OpenAI, so verstehe ich es, versucht, KI so menschlich wie möglich herzustellen. Geht es darum, menschliche Intelligenz nachzubauen oder sollte man nicht eigentlich an einer vielleicht sogar höheren Form oder anderen Form von Intelligenz arbeiten? Was ist da die Diskussion?

Johannes Otterbach: Also, das ist eine gute Frage. Es gibt viele Indikatoren und Arbeiten, auch das philosophische Institut in Oxford arbeitet viel daran. Die Frage ist, wenn wir es wirklich schaffen, diese menschenähnliche Künstliche Intelligenz zu produzieren, dann ist es sehr wahrscheinlich, dass diese Intelligenz so gut ist, dass sie schnell supermenschliche Intelligenz erreicht. Das ist einfach das große Problem der Sicherheitsforschung für KI. Wie kann man das garantieren, wenn wir an einen solchen Punkt kommen, dass die KI uns wohl gesinnt oder wie wir es nennen – Human Value Aligned – bleibt? Also, wie können wir es schaffen, dass uns die KI nicht einfach über den Haufen fährt mit dem nächsten Auto?

Gast 2: Also zusammenfassend würden Sie sagen, die Idee ist eher, man baut erstmal an einer menschliche Intelligenz und dass die dann eventuell die Super Human Intelligence selbst –

Johannes Otterbach: Ja, ich meine, das ist so ein Zwischenspiel. Wenn ich Sie jetzt fragen würde, definieren Sie menschliche Intelligenz, das ist unheimlich schwierig. Da tun sich auch die Neurowissenschaftler momentan noch relativ schwer. Das ist auch die ursprüngliche Idee dieses Feldes, sich dem Konzept von Intelligenz von der technischen Seite zu nähern. Ich glaube, auf dem Weg dahin werden wir noch viele interessante Aspekte auch über uns selbst lernen, über Intelligenz. Was heißt es überhaupt, intelligent zu sein? Das ist eigentlich eine ganz spannende Geschichte. Um dann wirklich zu fragen, was ist menschliche Intelligenz und ist das die einzig mögliche Intelligenz? Das wissen wir nicht. Das ist eine gute Frage. Es kann wirklich am Ende rauskommen, dass die Intelligenz, die wir bauen werden, ähnlich der menschlichen ist, aber einfach völlig anders in anderen Aspekten.

Gast 3: Mich würde dieser ganze ethische Komplex und die Folgeabschätzungen interessieren. Es gibt die Geschichte mit dem, was passiert, wenn das aus dem Ruder läuft, aber es gibt auch die Geschichte der böswilligen Anwendung. Davon war jetzt eben schon ein bisschen die Rede. Es hat mich wirklich interessiert bei euch, ob es bei den internen Abläufe so etwas wie den Advocatus Diaboli oder ein philosophisches Gremium gibt. Menschen werden immer erst aus Schaden klug. Wie soll man das antizipieren können? Erfährst Du so in der Art von Prozessen in deiner Arbeit?

Johannes Otterbach: Das ist eine hervorragende Frage. Das ist ein Problem, das wir auch noch nicht gelöst haben. Ich glaube, unser bester Versuch dazu war wirklich diese Release Strategy zu machen, dieses gestaffelte Veröffentlichen des Modells. Es hat sich herausgestellt, dass viele Leute einfach daran interessiert sind, ein bisschen kreativ damit zu sein. Bei diesem Sprachmodell hat sich rausgestellt, dass Leute Bücher damit schreiben. Wir hatten ein anderes Projekt, wo wir im Prinzip ein Musiksystem trainiert haben. Da hat sich jemand dazu genötigt gesehen, das Modell zu nehmen und damit die Unvollendete zu vollenden. Es stellt sich heraus, dass Leute momentan eigentlich relativ kreativ sind. Und da sie bereits relativ gute Fähigkeiten haben, schauen wir einfach, wie sie damit spielen. Dann hängt es auch einfach davon ab, dass wir mit vielen verschiedenen Parteien darüber reden. Deswegen haben wir unser Safety- und unser Policy-Team, die sich wirklich damit beschäftigen. Einfach mit politischen Entscheidungsträgern zu reden, um auch zu antizipieren, was passieren kann. Was sind die technischen Möglichkeiten? Was sind Gefahrenzonen? In der Kommunikation kann das gelöst werden. 

Gast 4: Ich war Management-Consultant. Deswegen noch einmal eine ganz andere Frage. Inwiefern können Sie uns ein bisschen etwas dazu erzählen, wie sich bei Ihnen Entscheidungen und Planungen vollziehen? Konkret haben wir das Beispiel von der Ausgründung für Microsoft For-Profit gehört. In Ihrem Mission Statement, in Ihren Ausführungen wird immer wieder darauf hingewiesen, dass sich möglicherweise eine Verschiebung ergibt, zunächst einmal Probleme selbst auszubaldowern. Dann sie praktisch auszusondern. Solche Entscheidungen, wie werden die bei Ihnen getroffen? Wie arbeiten Sie im Leitungsgremium zusammen? Wer entscheidet so etwas?

Johannes Otterbach: Da kann ich nicht so viele Angaben zu machen. Das sind firmenspezifische Interna. Ich kann aber sagen, dass es viele Diskussionen gibt, bevor es zu irgendwelchen Entscheidungen kommt. Diese werden auch innerhalb der Firma sehr offen geführt.

Gast 4: Und Sie sehen da einen wichtigen Unterschied zu Unternehmen, in denen Sie früher tätig waren?

Johannes Otterbach: Auf jeden Fall. Und es ist auch wohlbekannt, dass Apple für lange Zeit, ich weiß nicht was der momentane Stand ist, sich sehr stark in diesen Silos gearbeitet hat. Wo wirklich Gruppen, die nebeneinander gesessen haben, nicht miteinander reden durften und sich da nicht austauschen konnten. So etwas ist bei uns im Moment nicht vorgesehen und nicht der Fall.

Gast 5: Ich bin an KI-Ideen zu Gesundheit interessiert. Deutschland entwickelt ja jetzt endlich mal Möglichkeiten, tatsächlich Daten digital zu sammeln und auch zusammenzuführen. Problematisch vielleicht. Ich möchte erwähnen, vorweg, dass sich Microsoft ja gerade mit der Allianz zusammengetan hat für bestimmte Bereiche. Das werden Sie sicher auch zur Kenntnis genommen haben. Die Allianz war prägend, treibend, zu 70% beteiligt daran, dass es für die Patientenakte jetzt ein kleines Unternehmen gibt. Sie nennen es erstmal Start-Up, aber Vivy ist mittlerweile schon ein bisschen operabel. Damit stellt sich für mich die folgende Frage, die ich dann auch an Sie habe: In welchem Maße ist es ethisch, wie auch sozialpolitisch und gesellschaftsgestaltend problematisch, wenn Gesundheitsdaten als typisch persönliche Daten in ihrem Reichtum, nun bei einem solchen Unternehmen – selbst wenn wahrscheinlich Walls dazwischen sind – irgendwie nutzbar werden? Denn ich komme mit der These, wer die Daten über unsere physische und psychische Gesundheit hat, der kann uns ganz schön beeinflussen. Von daher stellt sich für mich die prinzipielle Frage, wer sollte eigentlich auf welcher Plattform, in welchen Rahmenbedingungen, datenschutzgrundverordnungsgemäß der Datenberechtigte sein? Wer ist der Datenberechtigte und in welchem Maße können wir Probleme, die dort entstehen können, ausbremsen, in dem wir sagen: Daten sind immer unsere und nur wir dürfen darüber verfügen. 

Johannes Otterbach: Ja, vorweg, ich bin, wie gesagt, keine Rechtswissenschaftler, ich kenne auch den Kontext nicht.

Gast 5: Das ist keine Rechtsfrage. Das ist schlichtweg das Spiel der Daten.

Johannes Otterbach: Sie haben ja schon relativ spezifische Fragen über Datenobrigkeit gestellt, deswegen kann ich da wirklich keine Kommentare drüber machen.

Gast 5: Ich bin Anwalt. Im Prinzip sind wir die Einzigen, die über diese Daten verfügen können. Sie zu kombinieren, also zu verknüpfen ist im Prinzip verboten. Ob und in welchem Maße dieses Prinzip durchgehalten wird, ist dann eine Frage, die man politisch so oder so entscheiden kann. Ich plädiere dafür zu sagen, es darf niemand anders die zusammenführen, damit niemand eigentlich die Dispositionsfreiheit hat. Es sei denn, ich und meine Freunde und alle diejenigen, die ich auch ermächtige, die Daten für die Forschung zur Verfügung stellen. Soweit nur das Problem, damit Sie dann auch antworten können.

Johannes Otterbach: Ich meine, ich verstehe Ihr Problem. Wie gesagt, ich bin kein Rechtswissenschaftler. Ich habe da keine Expertise drin. Das einzige Argument, das ich dagegen stellen kann, ist auch wieder ein bisschen aus dem historischen Kontext. Wenn man jemanden gefragt hätte vor der industriellen Revolution, "Sollen wir die industrielle Revolution haben?", hätte auch wahrscheinlich jeder "Nein" gesagt. Allerdings sind viele positive Aspekte dabei herausgekommen. Das verhält sich eben auch so mit, unter Umständen, der Gesundheitsversorgung. Die Anwendungen, die KI für die Gesundheitsversorgung machen kann, da gibt es auch extrem viele positive Aspekte. Das muss man auch einmal herausstellen.

Gast  5: Das ist mir sehr bewusst. Ich arbeite auch in die Richtung.

Johannes Otterbach: Die Frage, wie man sich diese Daten wirklich aneignet, das geht dann wieder, was auch X vorhin gesagt hat, auf das verteilte Lernen hinaus. Da gibt es auch technische Lösungen. Da kann unter Umständen die europäische Union auch wieder vieles machen. Das ist ein Problem, das technisch gelöst werden kann. Also von meinem Forschungsstandpunkt aus. Die Frage ist, wie kann man die Forschung dazu incentiveren, in diese Richtung zu forschen?

Gast  5: Das juckt die sehr.

Johannes Otterbach: Vielleicht. Ich sehe das momentan nicht, weil die Forschung, die solche Dinge vorantreibt, die sitzt momentan eben in den USA und in China und da sind einfach die Umgebungen anders. Da stellt sich mir die Frage, wie kann ich als politische Landschaft in Europa, in der Funktion als Regulator, meine Forschung darauf abgestimmt so incentivieren? Um genau die Fähigkeiten bereitzustellen, die Europa kompetitiv machen.

Gast  6: Ich bin auch Rechtswissenschaftler. Ich habe eine regulatorische Frage. Und zwar im europäischen Rechtsraum ist es häufig so, wenn etwas keimt, eine Idee sich entwickelt, dann wird reguliert, ohne dass sich überhaupt ein Produkt entwickelt hat. Gegebenenfalls hemmt es Ideen, andererseits ist es datenschutzrechtlich wahrscheinlich auch sinnvoll. Meine Frage: In den USA, wenn ihr entwickelt, habt ihr regulatorische Vorgaben, die ihr bei der Entwicklung des Codes berücksichtigen müsst? Oder entwickelt ihr, stoßt gegebenenfalls auf ein Produkt, was ihr als gefährlich einstuft und reguliert dann im Nachhinein? Oder ist schon während der Entwicklung des Codes eine gewisse Regulierung vorhanden?

Johannes Otterbach: Ich glaube, wir fahren da relativ im ruhigen Wasser. Die Daten, die wir verwenden, sind alle öffentlich zugänglich, die da auch so dargestellt sind. Es gibt viele Benchmark Datasets, die einfach schon von anderen Forschern zusammengetragen wurden. Mit denen kommt man einfach sehr, sehr weit. Damit arbeiten wir. Das heißt, wir setzen in der Fundamentalforschung auf Daten, die öffentlich sind. Deshalb stellt sich für uns diese Frage nicht. Die Frage stellt sich wirklich nur dann für Unternehmen wie DeepMind, Google, IBM, die auf Klienten-Daten rechnen und da diese Algorithmen ansetzen. Das ist eine andere Frage. Da kann ich auch nicht mehr dazu sagen.

Gast 7: Ja, ich arbeite für die Versicherungsverbandschaft. Meine Frage geht auch in die Richtung Daten. Mich würde interessieren, setzt OpenAI so etwas wie einen Datenethik-Kodex für die Entwickler ein? Oder haben Sie andere Mechanismen, die beispielsweise verhindern würden, dass voreingenommene Daten benutzt werden? Das ist ja auch eine Befürchtung, die häufig geäußert wird.

Johannes Otterbach: Ja, das ist glaube ich, dieselbe Antwort. Wir rechnen hauptsächlich mit öffentlichen Datensätzen. Da stellt sich diese Frage nicht. Wir haben natürlich auch unser Policy-Team, das eben auch mit dabei ist. Das heißt, teilweise, wenn Projekte dann wirklich ein Lebenszeichen aufweisen, dann reden wir auch mit unserem Policy-Team. Und schauen einfach, was die davon denken.

Gast 7: Darf ich da noch einmal nachhaken? Was heißt denn, öffentliche Datensätze? Sind das anonymisierte Daten oder was könnte man sich darunter vorstellen?

Johannes Otterbach: Zum Beispiel einfach Unmengen von Bilddaten. Es gibt diesen großen Datensatz von ImageNet. Das hat jemand zusammengetragen. Das sind einfach nur Bilder. Dann teilweise, wie wir gesagt haben, WikiText, da hat sich jemand einfach Wikipedia genommen, hat einen riesigen Datensatz daraus gemacht und dann nehmen wir das als Beispiel. Es sind öffentlich zugängliche Datensätze. Was halt auch da immer drin ist. Wenn sich jetzt wirklich jemand im Wikipedia einen eigenen Eintrag macht, dann ist der natürlich öffentlich zugänglich. Dann stellt sich die Frage der Anonymisierung in dem Moment nicht.

Gast 8: Ich arbeite als Data Scientist im Bereich Energieeffizienz. Ich habe eine Frage, und zwar, wie würdest Du dir ein europäisches OpenAI vorstellen? Würde man es anders machen?

Johannes Otterbach: Das ist eine gute Frage.

Gast 8: Oder vielleicht würde man es auch nicht können. Oder besser machen?

Philippe Lorenz: Oder plant ihr eine Standort-Eröffnung bei uns? Vielleicht?

Johannes Otterbach: Wie stelle ich mir das vor? Ich glaube nicht, dass die Europäer das nicht können. Ich glaube, dass die Europäer relativ gut sind, wenn sie sich wirklich mal hinter eine Idee klemmen, diese dann auch wirklich durchzuführen. Da stehen wir den Amerikanern in nichts nach. Ich glaube wir haben das folgende Problem: Wir sind so viele Leute, jeder hat seine eigene Meinung und deshalb kommen wir manchmal nicht vom Fleck. Ich glaube, diese anfängliche Energie zu beziehen, das müssen wir irgendwie noch produzieren. Wie das europäische OpenAI aussehen würde, ist davon abhängig, wie wir einen Konsensus finden. Das kann ein einzelner Standort sein, irgendwo in einem der Staaten. Das kann ein verteiltes System sein, im Sinne von Max-Planck, Frauenhofer, sonst irgendwas. Das kann alles funktionieren. Das hängt alles von dem Detail ab. Ich glaube, das Wichtigste an der ganzen Sache ist einfach, das Ökosystem herzustellen. Das stellt sich momentan als relativ schwierig für die Europäer heraus.

Gast 8: OpenAI ist ja aus der Wirtschaft entstanden, so wie ich das verstehe. Würde das in Europa anders laufen?

Johannes Otterbach: Ich meine, das Silicon Valley ist ja schon lange dafür bekannt, dass es solche Projekte macht. Auch, dass das einfach von dem Ökosystem gegeben ist. Da sind einfach die Venture Capitalists ein wenig risikofreudiger in der Richtung. Da ist das Ökosystem einfach anders ausgebaut. Da hat sich ein regulatorisches System drumherum gebaut, dass das ermöglicht. Ich glaube, da gibt es kein einfaches Rezept, das zu kopieren. Da muss Europa seinen eigenen Weg finden. Einfach zu sagen, wir kopieren das System von Silicon Valley, das wird wahrscheinlich nicht funktionieren. Auf der anderen Seite muss man auch sagen, dass solche Probleme Geld brauchen. Wenn man sich die Entwicklung der Gelder anguckt über die letzten Jahre. Man nimmt sich da StarCraft oder AlphaGo und rechnet aus, was das [diese Modelle] alles kostet. Dann sieht man auch relativ schnell, dass die Speerspitze der Forschung für KI jetzt auf einmal Ausmaße annimmt, die sich auf dieselbe Größenordnung wie fundamentale Forschungsangelegenheiten beziehen. Man kann sich das zum Beispiel mal anschauen, was es kostet, ein Teleskop, wie das Atacama Teleskop in Peru, zu betreiben. Da kommt man so auf ungefähr 500 Milliarden über einen gewissen Zeitraum. So, jetzt kann man das bei OpenAI hochrechnen oder bei Google hochrechnen oder bei DeepMind hochrechnen. Wenn ich das momentane Trainingsmodell nehme, was kommt denn raus, wenn ich das zehn Jahre rechnen lasse? Da kommt man auch relativ schnell auf eine Milliarde oder zwei. Man muss einfach die Gelder in die Hand nehmen, wenn man so etwas erreichen will.

Zuschauer: Das waren eben 500 Millionen?

Johannes Otterbach: 500 Milliarden. (Anm. Korrektur: Nach Rücksprache mit Johannes Otterbach, 500 Millionen ist die korrekte Zahl.)

Zuschauer: Wirklich?

Johannes Otterbach: Ja, ja. Fundamentale Forschung ist schon teuer.

Philippe Lorenz: Braucht es dann möglicherweise so eine Art CERN für Künstliche Intelligenz-Forschung in der Europäischen Union? Dass man einen Verbund herstellen kann, in dem man auch wunderbar Safety-Prinzipien einbetten könnte, die man wiederum durch eine gemeinnützige Organisation überwachen könnte? Um diese Ungleichgewichte in den Kosten abzudecken?

Johannes Otterbach: Ja, die Künstliche Intelligenz kam ja historisch aus dem Ingenieurwesen heraus. Das heißt, man muss im Prinzip, wenn man auf die momentane Speerspitze der Forschung setzt, anfangen, sich ein ein Konzept zu überlegen, dass die momentane Forschung in Richtung Grundlagenforschung fokussiert. Wenn man diesen neuen Blickwinkel erarbeitet, dann kommt man schnell auf solche Ideen, wie zum Beispiel ein CERN für Künstliche Intelligenz. Ob jetzt CERN das richtige Modell dafür ist, das ist fragwürdig. Weil das CERN hat natürlich das Problem, diesen Beschleuniger bauen zu müssen. Der ist natürlich an die Geographie gebunden. Dann baut man dieses Zentrum um diese Lokalität drumherum. Das muss vielleicht bei KI nicht notwendigerweise so sein. Da ist dann die Kreativität der entsprechenden Gremien gefragt.

Philippe Lorenz: CERN setzt auch Deep Learning Modelle ein, um Partikel zu erkennen. Vielleicht findet man da wieder eine Rückbindung. Hinten in der letzten Reihe war noch eine Frage.

Gast 9: Ich würde gern noch einmal auf die Sache eingehen, was Du da gerade gesagt hast, mit den Fragen zu den regulatorischen und den ethischen Gesichtspunkten. Dem bist Du ja damit entgegen getreten, dass die Daten öffentlich zugänglich sind. Aber ich finde, das ist ja nicht der einzige Kritikpunkt. Der andere Kritikpunkt bei der Datenverarbeitung ist ja auch, dass da unglaubliche Datenmengen unheimlich schnell verarbeitet werden und darauf Ergebnisse basieren. Zum Beispiel öffentliche Daten, ich bin ja verpflichtet, mich in öffentliche Register einzutragen, ohne, dass ich das vielleicht unbedingt möchte. Die können dann ja auch ausgelesen werden. Dann vielleicht ein anderes ganz profanes Beispiel, aber es könnten ja öffentliche Daten über Leute, die die gleiche Hautfarbe haben wie ich, eingelesen und ausgewertet werden und daraus zumindest statistische Prognosen über gewisse Gruppen wie mich erstellt werden. Ich finde, das ist ein bisschen schwierig, der Ethik und der Regulation einfach nur mit der Öffentlichkeit der Daten gegenüberzutreten. Habt ihr da noch irgendwelche Diskurse, die ihr führt?

Johannes Otterbach: Ja, da kann ich erstmal, von OpenAI aus gesehen, kein Statement dazu machen. Die Frage stellt sich natürlich. Das ist aber auch die Frage von demjenigen, der diese Daten öffentlich stellt. Die Datensätze, die ich vorhin genannt habe, das sind einfach Forschungsdaten. Die sind schon lange draußen, da sind auch keine Personen drin. Das sind Tierbilder, Flugzeuge, Boote oder sonst irgendetwas. Wenn jetzt wirklich der Gesetzgeber sagt, ich stelle die Daten öffentlich da zur Verfügung, die ich über eine API abrufen kann und ich kontrolliere nicht mal, wer auf diese API zugreift, klar stellt sich dann die ethische Frage. Für mich stellt sich eher die Gegenfrage, ob dann dann nicht derjenige, der diese API zur Verfügung stellt –

Gast 9: Deswegen habe ich wegen der Statistik gefragt. Es können ja Leute, die in die gleiche Gruppe wie ich reinpassen, Daten zur Verfügung stellen und dadurch können zum Beispiel über Leute in meinem Alter, mit meiner Hautfarbe, in meinem Wohnort gewisse Prognosen erstellt werden. Ich finde, das ist auch eine Schwierigkeit der schnellen Verarbeitung dieser Massendaten, die man zumindest mal ethisch betrachten sollte.

Johannes Otterbach: Ja, bestimmt. Ich meine, wie gesagt, ich bin kein Ethiker. Das sind offene Fragen. Das sind Probleme. Das will ich gar nicht abschwächen. Das ist auf dem Schirm von vielen Leuten. Selbst in den USA bei den Politikern macht das die Runde. Cambridge Analytica ist an den USA auch nicht völlig vorbeigelaufen.

Gast 10: Ich bin Psychologin. Mich würde interessieren, Du hast ja erzählt, dass ihr die Veröffentlichung dieses Sprach-Algorithmus schrittweise gemacht habt und dass die Leute Proposals einreichen mussten. Habt ihr denn auch Ablehnungen rausgeschickt und wenn ja, wer wurde abgelehnt?

Johannes Otterbach: Da war ich nicht Teil der Arbeitsgruppe. Das weiß ich nicht. Das kann ich nicht sagen.

Gast 10: Auch nicht ob?

Johannes Otterbach: Auch nicht ob. Ich war nicht Teil der Arbeitsgruppe.

Gast 10: Ich meine, das ist ja der Moment, wo ein Sicherheitsregularium greift. Für mich jedenfalls. Wenn das dann nicht transparent ist, dann –

Johannes Otterbach: Ich würde Ihnen diese Frage gern beantworten, ich kann es nur leider nicht. Es ist nicht, dass ich diese Antwort nicht sagen kann, sondern ich weiß es einfach wirklich nicht. Was ich aber ganz interessant finde, weil Sie mich gerade an Psychologie erinnert haben, ist, dass, wenn man sich diese KI-Systeme anguckt, wir eigentlich viel Interesse daran haben, dass sich Sozialwissenschaftler und auch Psychologen dazu bewerben. Das Problem ist, wenn wir wirklich davon reden, dass wir eine menschenähnliche Künstliche Intelligenz erstellen wollen, dann heißt es auch, wir brauchen irgendwelche Evaluierungsmetriken, die man auch bei Menschen an den Tag legt. Da kann ich mit meinem Hintergrund als Physiker nicht viel dazu beitragen. Das heißt, wir brauchen wirklich das Feld der Sozialwissenschaften und die der Humanwissenschaften auch.

Gast 10: Ich denke auch, das ist eine spannende Frage, weil ich habe noch zum Beispiel in den 1970er Jahren studiert und da waren Intelligenztests das große Ding. Aber gleichzeitig haben wir in jeder Prüfung gelernt, Intelligenz ist das, was der Test misst. Das ist ein in sich geschlossener Kreis. Ich meine, das ist jetzt 40 Jahre her. Seitdem hat sich das Konstrukt Intelligenz wahnsinnig entwickelt. Ich weiß gar nicht, ob sich überhaupt jemand zutraut, menschliche Intelligenz momentan zu definieren. Ich finde, das Ganze muss ja einen zukunftsgerichteten Gedanken haben. Intelligenzen sind ja eigentlich da, um Probleme zu lösen. Welches sind denn die größten Probleme, die wir als Menschen auch gerade auf diesem Planeten haben? Ich finde, das sind Fragen, die sind einfach gigantisch. Da braucht man mehrere Teleskope wahrscheinlich, um die zu beantworten. Es passiert wahnsinnig viel gleichzeitig. Da frage ich mich manchmal, diese ganze Debatte – Intelligenz, Risiko, Sicherheit – ist vergleichsweise klein und nicht weit genug greifend. Obwohl ich natürlich auch keine Lösung für das Problem habe. Aber das musste ich loswerden.

Gast 11: Ich bin Journalist. Ich interessiere mich für OpenAI Five, dieses Dota-Programm. Ich wollte wissen, das war ja relativ kostspielig, wie Du gesagt hast. Werden solche Projekte bei euch nach diesen drei Phasen, die es hatte, begraben? Werden die Daten irgendwie archiviert? Was macht ihr mit den Lerndaten? Du hast gesagt, ihr wollt die irgendwie weiter benutzen für andere Dinge. Aber das sind ja sehr spezifische Daten.

Johannes Otterbach: Ja, ich meine, das ist ja jetzt auch ein sehr spezifischer Algorithmus. Das ist ja das Reinforcement Learning. Das ist das selbstverstärkende Lernen. Du produzierst deine eigenen Daten. Du brauchst noch nicht einmal externe Daten. Du kriegst die Daten aus dem Spiel direkt. Das heißt, Du kannst die online direkt generieren. Die speichern wir auch dementsprechend nicht, weil wir die regenerieren können. Die Frage, die sich natürlich mit dem Dota-Projekt gestellt hat ist: Können wir testen, wo diese Algorithmen zusammenbrechen? Das war die erste Frage, die sich Dota am Anfang gestellt hat. Kann dieser Algorithmus, den wir haben, so ein komplexes Spiel, wie Dota, überhaupt lernen? Da hat sich dann herausgestellt, dass wir das machen können. Da muss man natürlich viel skalieren. Aber das hat man so gemacht. So werden auch die Projekte angegangen. So werden die dann auch erstmal entwickelt.

Gast 11: Das war einfach nur ein Test Case, weil Dota ein sehr komplexes Spiel ist?

Johannes Otterbach: Genau. Die Frage: "Können wir es schaffen, dass unser Algorithmus, den wir momentan haben für das Reinforcement Learning, gut genug ist, um ein komplexes Spiel, wie Dota, zu lösen?". Das war nicht klar. Bevor wir das angefangen hatten, war das eine absolut fundamentale Forschungsfrage. Ist es [der Reinforcement Algorithmus] überhaupt fähig, das zu lernen? Es stellt sich heraus, ja.

Gast 11: Für euch war das ja so ein Test Case. Aber für die ganze Szene im Gaming war das ja schon relativ revolutionär. Wenn man dann auch analysiert hat, wie die KI gespielt hat und so weiter.

Johannes Otterbach: Sie sagen Test Case jetzt so ein bisschen abfällig. Das ist nicht nur ein Test Case. Das ist wirklich die Frage von uns. Das ist fundamentale Forschung. Ist der Algorithmus wirklich dazu in der Lage, das zu lösen? Wenn man die Forscher vorher gefragt hätte, hätten Sie wahrscheinlich so viele Antworten gekriegt, wie Sie Forscher gefragt hätten. Es war wirklich nicht klar. Oftmals ist es einfach so mit den Ideen in der Deep-Learning-Forschung, da gibt es eine Idee und die probiert man dann aus. In 99% der Fälle funktioniert die Idee nicht. Irgendwann hat man dann mal eine Idee, die funktioniert auf kleinen Systemen, auf gewissen Umgebungen. Dann ist wirklich die Frage, ist der Algorithmus dazu fähig, auch andere Umgebungen zu lösen? Kann er das auf größeren Skalen? Kann er mit mehr Komplexität umgehen? Das ist dann nicht nur ein Testfall, sondern man versucht das wirklich an den Rand des Möglichen zu treiben. Das war mit Dota genauso.

Gast 12: Ich will eine ganz kurze Frage stellen. Zum Einen, wir haben auf EU-Ebene, auch im deutschen Bundestag, Kommissionen zur Künstlichen Intelligenz und einen parlamentarischen Ausschuss. Wird das verfolgt oder spielt das keine Rolle, weil der Fokus auf dem Standort China liegt? Wird, was auf EU-Ebene oder in Deutschland passiert, im Prinzip vernachlässigt? Und die zweite Frage ist, das Ziel von OpenAI ist ja sozusagen, auch die Vorteile der Künstlichen Intelligenz auf Open Source-Basis darzustellen. Es ist ja bekannt, dass unsere Sicherheitsbehörden und die Intelligence Community sehr eng mit Facebook und Amazon zusammenarbeiten. Kollidiert das manchmal? Euer Ziel und das was die Intelligence Communities eigentlich wollen? Das eben nicht zu sehr Dinge an die Öffentlichkeit gelangen?

Johannes Otterbach: Also zum ersten Punkt, ob [EU-Policy und Policy in Deutschland] in den USA verfolgt wird. Natürlich gibt es da verschiedene Zweige, die sich auch mit der Policy in Europa auseinander setzen. Das hat allerdings nicht dasselbe Gewicht wie Policy mit China. Das ist einfach eine andere Spielklasse. Der Unterschied stellt sich dann so heraus, dass oftmals viele, viele Software-Ingenieure und -Entwickler von der aktuellen Entwicklung der Policy bezüglich China wissen, aber hinsichtlich der Policy bezüglich Europa, nur die daran Interessierten informiert sind. Mit den Geheimdiensten und den Geheimdienstbehörden, ich glaube, da kommt man sich noch nicht so wirklich ins Gehege. Einfach weil Geheimdienstforschung noch einen ganz anderen Aspekt hat mit Cyber-Security. Das ist noch deutlich schwieriger im Moment ist als KI. Da ist KI einfach noch nicht das Risiko-Pferd in der Richtung. Das wird bestimmt kommen. Da weiß ich auch nicht, wie sich das entwickeln wird.

Philippe Lorenz: Vielen Dank für die Fragen. Ich mache jetzt kein Resümee. Wie sieht deine Vorstellung zur Erlangung der Artificial General Intelligence aus? Wann sind wir soweit? Deine Prognose? Wann werden wir damit konfrontiert sein? – Ich weiß, das ist unangenehm das zu beantworten. Das geht über einen sicheren Prognosezeitraum hinaus, vielleicht.

Johannes Otterbach: Die Definition, die ich habe, 30 Jahre.

Philippe Lorenz: 30? Okay. Vielen Dank, Johannes, für Deine Einblicke.

[Applaus]

- Ende des Transkripts -

05. März 2020
Ansprechpartner: