Sommer 2018

Wissenschaft & Umwelt

Interview

Künstliche Intelligenz: innovatives Denken

David Hulme

Werden Maschinen bald intelligenter sein als Menschen? Ein KI-Experte spricht darüber, auf welchem Stand die Technik heute ist, wo sie hinsteuert und was uns beunruhigen kann.

Künstliche Intelligenz (KI) ist kein Science-Fiction-Stoff mehr. Dienstmädchen-Roboter sind zwar noch nicht Realität geworden; aber mit Hochdruck arbeiten Forscher daran, denkende, problemlösende Maschinen zu erschaffen, deren „Verstand“ dem unseren Konkurrenz machen könnte. Sollte uns das beunruhigen?

Seán Ó hÉigeartaigh (Sean O’Hegarty in englischer Schreibweise) ist begeistert von dem Nutzen, den KI bringen kann, gleichermaßen aber auch auf der Hut vor der dunklen Seite dieser Technik. Er hat am Dubliner Trinity College in Genomik promoviert und ist heute geschäftsführender Direktor des Center for the Study of Existential Risk der Universität Cambridge. In der internationalen Forschung über die langfristigen Folgen und Risiken der KI spielt er eine große Rolle.

Vision-Herausgeber David Hulme hat mit ihm gesprochen – nicht nur über den aktuellen Stand der Technik, sondern auch über ihre künftige Entwicklung.

Seán Ó hÉigeartaigh, geschäftsführender Direktor des Center for the Study of Existential Risk der Universität Cambridge

DH Könnten Sie mir die Geschichte der KI kurz zusammenfassen?

SOH Man könnte sagen, künstliche Intelligenz als Idee wurde in den 1950er-Jahren geboren. Einige dahin gehende Ideen lagen schon länger in der Luft, ein wirklich entscheidender Moment war dann 1965 eine Tagung in Dartmouth, wo einige der genialsten Denker aus Computerwissenschaft und anderen Disziplinen zusammenkamen und den Plan fassten, Maschinen zu erschaffen, die wie Menschen denken und Schlüsse ziehen können. Die Wissenschaftler waren sehr optimistisch und ambitioniert. Sie dachten, viele Herausforderungen, mit denen wir in den letzten 60 Jahren zu tun hatten, würden in ein paar Jahren bewältigt sein, Dinge wie maschinelles Sehen und maschinelles Übersetzen wären zwar schwierig, aber mit einem fähigen kleinen Team dennoch im Lauf einiger Monate zu leisten.

Diese Tagung würde ich als den formellen Beginn des Forschungsgebiets künstliche Intelligenz ansehen.

DH Kommen wir so schnell voran, wie wir es damals erwartet haben?

SOH Ich denke nicht, aber wir machen schon Fortschritte. Wie in vielen Forschungsbereichen hat sich die Schaffung künstlicher Intelligenz als weit schwieriger erwiesen, als sie anfangs erschien.

Im Nachhinein ist das wahrscheinlich nicht überraschend. Intelligenz ist eines der komplexesten Dinge, die es gibt. Der Gedanke, wir könnten sie oder etwas Gleichwertiges innerhalb von ein paar Monaten oder Jahren nachbauen, war vielleicht etwas zu optimistisch. In den letzten rund 60 Jahren hat es Phasen sprunghafter Fortschritte gegeben, auf die Perioden von scheinbarem Erlahmen folgten. Dieser Wechsel wird als Sommer und Winter der KI beschrieben. Oft war ein bestimmter Ansatz zunächst fruchtbar, um dann jedoch nicht weiterzuführen.

Im Lauf der letzten zehn Jahre konnte allerdings mithilfe eines Ansatzes, den man als maschinelles Lernen bezeichnet, ein großer Fortschritt erreicht werden. Das Einzigartige an diesem Ansatz ist die Lernfähigkeit der entwickelten Maschinen, diese müssen nicht starr programmiert sein, auf eine spezifische Abfolge von Schritten hin . Vielmehr sind sie dazu fähig, Daten zu analysieren und dementsprechend entweder eine Aktion durchzuführen oder auf eine Antwort zu kommen, und dies, ohne dafür speziell programmiert zu sein.

DH Sie hatten sowohl mit dem Thema Existenzrisiken als auch mit der Entwicklung von KI zu tun. Ihr Fachkollege Nick Bostrom meint: „Der Übergang zum Zeitalter maschineller Intelligenz sieht nach einem Ereignis mit weitreichenden Folgen und, so denke ich, einer erheblichen Existenzgefährdung aus.“ Wenn das stimmt, worin liegt dann die Gefahr, und ist sie existenzbedrohend?

SOH Zunächst muss man wissen, dass Nick Bostrom, wenn er vom Übergang zu einem Zeitalter maschineller Intelligenz und Existenzgefährdung spricht, nicht die aktuell in der Welt eingesetzten KI-Systeme meint. Stattdessen blickt er voraus auf die Einführung von etwas, das man „künstliche Allgemeinintelligenz“ nennen könnte – das ist die Art von Intelligenz, die generelle Schlüsse ziehen und Probleme lösen kann, dank der wir unsere Umwelt so beherrschen könnten, wie bisher nur die Spezies Mensch es vermag. Derzeit sind wir davon meilenweit entfernt, und die Fachwelt ist geteilter Meinung darüber, wie lange es dauern wird, um dahin zu gelangen. Aber es ist sehr unwahrscheinlich, dass der Prozess weniger als ein Jahrzehnt dauert, manche glauben, dass er viele Jahrzehnte benötigen wird. Sollten wir diese technische Möglichkeit tatsächlich erreichen, würde das die Welt zweifellos in mehr Aspekten verändern, als wir uns jetzt vorstellen können.

Sollten wir Intelligenz erschaffen, die der unseren gleichwertig oder gar überlegen wäre, so wäre es unklug anzunehmen, das würde sehr gut für uns ausgehen.“

Seán Ó hÉigeartaigh

Wir haben unsere Umwelt mehr geschädigt als jede andere Spezies. Arten löschen wir in enormem Tempo aus; wir verändern das Klima in einer Weise, die für unsere Zukunft untragbar sein könnte. Wenn wir Intelligenz in diese Welt bringen sollten – entweder als unser Hilfsmittel oder als unabhängige Einheit – dadurch die Welt noch mehr verändern könnten; dann müssen wir sehr genau überlegen, welche Aufgaben und welches Maß an Autonomie wir diesen künftigen Systemen geben wollen, denn die Uhr zurückzustellen, könnte sehr schwierig werden.

Jene Art von KI werden wir sicherlich weder heute, morgen noch nächstes Jahr auf der Erde haben. Dennoch denke ich, dass es sich durchaus sehr lohnt, im Voraus zu überlegen, ob wir auf Weg in diese Richtung sind und uns der Schritte bewusst zu werden, die wir gehen wollen.

DH Im Bericht „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation“ vom Februar 2018 schreiben Sie: „Künstliche Intelligenz ist etwas, das die Spielregeln ändert. Im vorliegenden Bericht wird die Welt, wie sie in den nächsten fünf bis zehn Jahren aussehen könnte, ausgemalt.“ Anschließend fahren Sie fort: „Unser Bericht ist ein Aufruf zum Handeln, an Regierungsinstitutionen und Menschen in aller Welt.“ Was waren daraufhin die Reaktionen von Regierungen, Unternehmen und Menschen?

SOH Die Reaktionen waren tatsächlich sehr positiv. Zunächst hatten wir befürchtet, man würde das für Angstmacherei halten. Dies war jedoch absolut nicht unsere Absicht gewesen. Die Idee war der Motivation aller beteiligten Autoren –viele von ihnen haben und hatten selbst mit der Entwicklung künstlicher Intelligenz zu tun – entsprungen, potenzielle negative Anwendungen zu identifizieren und zu verhindern, um die positiven Anwendungen zu erreichen, die wir alle so spannend finden. Zu erleben, dass der Bericht in diesem Sinne aufgefasst wurde, freute uns sehr. Wir haben sehr positive Kommentare bekommen und sind dabei, Workshops zur Nachbereitung zu organisieren. Alle Autoren sind mehrfach eingeladen worden, um Vorträge über die Ergebnisse des Berichts zu halten. (Ich bin gerade von einer Konferenz mit UN-Fachleuten zurückgekommen, die von der United Nations University organisiert worden ist.)

Eine unserer wichtigsten Empfehlungen ist die folgende: Da sich künstliche Intelligenz recht schnell entwickelt und bei so vielen sicherheitskritischen Systemen in unserer Welt zum Einsatz kommt, bedarf es einer engeren Zusammenarbeit zwischen Experten für maschinelles Lernen, die den Stand der Technik wirklich verstehen, politischen Entscheidungsträgern und Juristen, die entsprechende Gesetze entwerfen und die Strategie der Regierung steuern müssen, sowie Fachleuten für zivile Infrastruktur und Sozialwissenschaftlern, die über die Auswirkungen nachdenken müssen. Besonders interessiert hat uns, mit welchen Methoden unschädliche Entwicklungen von künstlicher Intelligenz missbraucht oder modifiziert werden können, um Schaden zu verursachen, und wie man das stoppen kann.

DH Welche Anwendungen von KI sollten uns vor allem beunruhigen?

SOH Wir haben uns drei Bereiche besonders angesehen: die digitale Verwendung (damit sind z. B. Angriffe und Verteidigung über das Internet gemeint), die physische (mögliche Angriffe auf materielle Infrastruktur) und die politische (Fortschritte in der Überwachung, automatisierte Propaganda – darunter fällt alles, was Akteuren mit bösen Absichten in die Lage versetzen könnte, politische Prozesse zu unterwandern oder wahrhaftige Diskussionen und Debatten zu stören).

Wir haben drei breite Trends identifiziert, die alle erwähnten Bereiche betreffen. Eine besteht darin, dass Intelligenz eine Ausbreitung der Bedrohungen erlaubt, mit denen wir derzeit konfrontiert sind. Eine weitere ist, dass sie neue Arten von Bedrohungen mit sich bringt, deren Eindämmung ebenfalls neue Methoden erfordert. Und die dritte ist, dass sie den Charakter der Bedrohungen, mit denen wir konfrontiert sind, in mehrfacher Weise verändert.

Ein Beispiel für die Ausbreitung von Bedrohungen: Bei einem Internet-Angriff besteht aktuell ein riesiger Unterschied zwischen der Effektivität des sogenannten „Spear-Phishing“ und der des Phishing. Phishing ist, wenn jemand eine bösartige E-Mail verschickt, damit man einen Link mit Schadcode oder etwas dergleichen anklickt. Erhalten Sie eine E-Mail von einem nigerianischen Prinzen, der Ihnen 50 Millionen Dollar anbietet, sagen Sie wahrscheinlich „Nö“ und klicken sie weg. Hinter einem Spear-Phishing-Angriff dagegen steckt gewöhnlich eine Person oder Personengruppe, die zuvor eine Menge Zeit dafür investiert hat, Sie als lohnendes Ziel auszusuchen und möglichst viel über Sie zu erfahren, und ihren Angriff so auf Sie maßschneidern konnte, sodass er überzeugend wirken wird.

Es sieht aus wie etwas von jemandem, dem man vertraut, oder es enthält genug persönliche Informationen, um es nicht als bösartigen Angriff einzustufen. Die sind viel effektiver, sogar Cyber- und Sicherheitsexperten fallen darauf herein.“

Seán Ó hÉigeartaigh

Im Moment ist die Anzahl dieser effektiven Angriffe begrenzt, weil sie eine Menge menschliches Können und Zeit erfordern. Wenn allerdings eine Person einen Großteil dieses Prozesses zu automatisieren imstande ist, dann wird dieser für weit mehr Akteure verfügbar und viel billiger. Ein automatisiertes System scannt und identifiziert z. B. Sie als aussichtsreiches Ziel, sei es wegen der Organisation, der Sie angehören, aufgrund Ihres Wohlstands oder Ihrer Aktivitätsmuster. Dann könnte das System furchtbar viele Informationen über Sie einsammeln: Ihr Profil in den sozialen Medien, Ihre Aktivitäten. Als Nächstes tragen verschiedene Teile des vorangegangen Prozesses dafür Sorge, dass Sie auf den Angriff hereinfallen – dies ist möglich, indem das System eine Nachricht zu konstruieren hilft, die Sie aufgrund der darin enthaltenen Informationen eher anklicken, da diese den Eindruck erwecken, dass die empfangene E-Mail relevant für Sie ist, oder Sie werden sogar durch synthetische Stimmen oder Bilder zum Öffnen verleitet. Wir kommen jetzt dahin, dass jemand eine mit seiner eigenen Stimme aufgenommene Nachricht so bearbeiten könnte, dass es wie die Stimme eines Ihnen bekannten Menschen klingt (falls die Person genug Stimmmproben von diesem Menschen hat). Und damit gibt es plötzlich das Instrumentarium für einen raffinierteren Angriff, und es könnte für viel mehr Leute verfügbar werden als bisher.

Im Moment wäre nur eine Gruppe mit sehr umfangreichen Ressourcen dazu in der Lage, etwas wie Stuxnet zu entwickeln oder das Stromnetz der Ukraine lahmzulegen. Aber noch einmal: Wenn es gelingt, viele der Aspekte, die einen solchen Angriff bislang noch zu einem Unternehmen mit hohem Aufwand an Können, Zeit und Ressourcen machen, zu automatisieren, dann könnten uns vielleicht mehr derartige Angriffe erwarten.

KI-Systeme selbst können auf andere Arten angegriffen werden als herkömmliche Computersysteme. Ein Beispiel hierfür wäre ein gegnerischer Angriff, bei dem ein System durch Eingeben von Bildern oder Pixeln der richtigen Art so getäuscht werden kann, dass es etwas zu sehen meint, das nicht existiert. So ist gezeigt worden, dass die Änderung nur weniger Pixel auf einem Stoppschild dazu führt, dass ein selbstfahrendes Auto dieses als Vorfahrtszeichen registriert. Man kann sich vorstellen, mit so etwas im großen Maßstab kann man es richtig „krachen lassen“. Allerdings denke ich in Bezug auf diesen Kontext, dass autonome Fahrzeuge genug Augen haben werden, damit Vergleichbares nicht passiert. Aber wenn wir diese Systeme in alles einbauen wollen – angefangen beim Gesundheitswesen über den Verkehr bis hin zur zivilen Infrastruktur – dann müssen wir an die neuartigen Angriffsmöglichkeiten gegen diese Systeme denken.

Ein anderes Beispiel könnte den physischen Bereich betreffen. Zur Zeit kann kein Mensch einen Drohnenschwarm, beispielsweise kleiner, fliegender Roboter, steuern. Aber mit künstlicher Intelligenz wäre Koordination von und Kommunikation zwischen Drohnen machbar, und damit potenziell auch ein sehr schlagkräftiger Angriff. Dies ist eine vollkommen neue Waffe, die in den nächsten fünf bis zehn Jahren verfügbar werden könnte.

DH Martin Rees kommentiert die Gefahr existenzieller Risiken durch Machenschaften von Übeltätern mit dem berühmten Ausspruch, „dass es in einem globalen Dorf auch Dorfidioten gibt“. Sind diese die Einzigen, die Sie an ihrem Tun hindern wollen?

SOH Ich denke auf jeden Fall, dass die Einzeltäter und Dorfidioten Grund zur Sorge sind. Einer der beunruhigenden Faktoren besteht darin, dass Fortschritte auf dem Gebiet der künstlicher Intelligenz wie auch der Biotechnologie (über die Martin viel geschrieben hat) dem Einzeltäter ermöglichen könnten, ausgefeilteren und folgenreicheren Schaden anzurichten, als er früher gekonnt hätte. Allerdings glaube ich, mächtigere nichtstaatliche Akteure und sogar staatliche Akteure davon auszunehmen, wäre naiv. Innerhalb des letzten Jahres haben wir erlebt, dass bestimmte Staaten in die politischen Prozesse anderer Staaten einzugreifen versucht haben. Die Phase massiver Konflikte und Kriege haben wir noch nicht hinter uns gelassen, und ich finde, darüber müssen wir besorgt sein. Und in einer Welt, wo wir mit Druck durch Klimawandel, große Migrationsströme und Unsicherheit der Nahrungsversorgung, dem Nexus Nahrung-Wasser-Energie, konfrontiert sind, meine ich, müssen wir auch darüber besorgt sein, was Gruppen mit umfangreichen Ressourcen tun könnten – neben den Einzeltätern.

DH Was verrät uns die russische Wahlpropaganda bzw. die Situation in den sozialen Medien über das menschliche Element im Missbrauch von KI? Personenbezogene Daten können für harmlose Zwecke genutzt werden (Marketing), genauso wie für böse (Manipulation).

SOH Ich denke, die Manipulation durch die Russen zeigt, dass es weit mehr Formen der Einflussnahme gibt, als uns notwendigerweise bewusst war, und dass sie in einem größeren Maßstab geschehen kann. Sie ist ein Vorbote für das, was werden könnte, wenn wir nicht sorgfältig über diese Dinge nachdenken. So habe ich z. B. gelesen, dass russische Hacker um die 10.000 maßgeschneiderte Tweets an Mitarbeiter des Verteidigungsministeriums (in den USA) und andere gesendet haben. Bisher, glaube ich, sind es eine Menge Leute, die an diesen Tweets schreiben; aber noch einmal: Wenn es gelingt, einige dieser Prozesse zu automatisieren, dann könnten uns noch größer angelegte Einmischungsversuche bevorstehen und die entsprechenden Mittel könnten für mehr Leute verfügbar werden. Darüber, wozu eine Technik benutzt werden kann, müssen wir sorgfältig nachdenken. Denn die Entwickler derjenigen Techniken, die dieser Art der Automatisierung zugrundeliegen, haben sicherlich nicht die Absicht, das Hacken von Wahlen zu ermöglichen. Sie entwickeln sie für alle möglichen unschädlichen Zwecke, um die Plackerei, die wir mit vielen Dingen, für die wir Zeit verschwenden, haben, zu verringern.

Was es wirklich zeigt, ist das Doppelnutzungspotenzial vieler Technologien – zwar mögen wir sie für ausschließlich nützliche Zwecke entwickelt haben; aber wir müssen bedenken, dass Leute einen Weg finden werden, sie für andere, nicht notwendigerweise harmlose Zwecke einzusetzen.“

Seán Ó hÉigeartaigh

DHWorüber sollte man als Durchschnittsbürger besorgt sein, wenn es um KI geht?

SOH Ich denke, die Menschen sollten überlegen, welche Arbeit sie ausüben, welche Fähigkeiten sie dabei einsetzen und ob es wahrscheinlich ist, dass diese Fähigkeiten in einem Zeithorizont von zehn oder zwanzig Jahren automatisiert werden könnten. Des Weiteren sollten sie überlegen, welche Bildung ihre Kinder erhalten, ob ihnen flexible, kreative Fähigkeiten zur Problemlösung mitgegeben werden – in einer Welt, in der neue Arbeitsplätze entstehen, viele herkömmliche Beschäftigungsarten aber wegfallen, werden solche Fähigkeiten von entscheidender Bedeutung sein.

Die Menschen sollten sehr auf ihre Sicherheit im Internet achten, denn die Art der Angriffe, die auf uns zukommen könnten, wird sich von ihrem primitiven und leicht erkennbaren Jetzt-Zustand zu einer immer raffinierteren entwickeln, so dass man darauf leicht hereinfällt.

Außerdem sollten die Menschen berücksichtigen, dass die Technik es kommerziellen Akteuren oder auch dem Staat möglich macht, weit mehr Informationen über sie zu sammeln als vor einiger Zeit noch und ihr Handeln möglicherweise stärker zu beeinflussen. Deshalb sollten sie auf ihren demokratischen Rechten bestehen und darauf, dass die für diese Technologien umgesetzten Regeln und Richtlinien mit ihren Werten in Einklang stehen.

DH Was bedeutet es, wenn einem in dieser modernen KI-Welt die Identität gestohlen wird?

SOH Das ist eine gute Frage. Aus der Vergangenheit haben wir eine Vorstellung von Kreditkartenbetrug und Bankbetrug. Ich glaube, in einer Welt, in der wir Audiodateien herstellen können, die etwas von sich geben, das von mir selbst zu kommen scheint, müssen wir uns auf eine weit ausgefeiltere Form von Identitätsdiebstahl einstellen. Und angesichts unseres Umfelds mit Fake News und Menschen, die das, was sie tatsächlich gesagt haben, ableugnen, wird es immer schwerer werden, zu wissen, was real und was fake ist.

DH Was kann also verhindern, dass Maschinen, falls etwas Verrücktes passiert, tatsächlich einmal die Macht übernehmen – vielleicht eine Entscheidung der KI, das Stromnetz abzuschalten, um das KI-System vor Schaden zu bewahren? Werden Menschen in Zukunft noch immer die Macht haben, sich über eine schlechte Entscheidung von Computern hinwegzusetzen?

SOH Vorläufig ja, und mit „vorläufig“ meine ich, in den kommenden Jahren und wahrscheinlich Jahrzehnten. Eine in nächster Zeit drängendere Sorge ist die, dass wir vielleicht solange nicht erkennen, dass eine Maschine auf einem schlechten Weg ist, bis es zu spät ist, um einzugreifen, ohne dass Schaden angerichtet wird.

Eine frühere Version hiervon könnte der Börsenkrach [von 2010] sein, bei dem es (u. a.) zu einer Kaskade von Algorithmen-Fehlverhalten kam, jedoch alles so schnell ging, dass zu dem Zeitpunkt, als Menschen eingreifen konnten, bereits ein bedeutender Wert vom Aktienmarkt verschwunden war.

Wir müssen in der Tat sehr vorsichtig sein, wenn wir zunehmend in wesentlicher Infrastruktur KI-Systeme installieren, und es ist unverzichtbar, dass wir zu jeder Zeit zu verstehen versuchen, wie diese Systeme zu ihren Entscheidungen gelangen. Unter welchen Bedingungen funktionieren diese gut und unter welchen Bedingungen versagen sie?

Noch ist unsere Technik meilenweit davon entfernt, dass KI-Systeme bei der Verfolgung ihrer Ziele eine Menge Kreativität zur Lösung von Problemen besitzen – dementsprechend auch selbst etwas dagegen unternehmen könnten, dass sie abgeschaltet werden (von sehr simplen Spielszenarien abgesehen). KI ist also eine Technik, um die sich die Wissenschaft langfristig kümmern muss, aber nichts, das dem Durchschnittsbürger aktuell den Schlaf rauben müsste.