Herbst 2018

Wissenschaft & Umwelt

Interview

Künstliche Intelligenz: innovatives Denken

Teil 2

David Hulme

Wird KI die Welt sicherer oder gefährlicher machen? Ein Experte spricht über seine Gedanken.

In Teil 1 des Interviews von Vision-Herausgeber David Hulme mit Seán Ó hÉigeartaigh hatte der KI-Experte viel über das Für und Wider künstlicher Intelligenz zu sagen. Teil 2 ist eine Fortsetzung des Gesprächs. Wohin führt uns die Entwicklung dieser Technik?

 

DH Am Ende des Zweiten Weltkriegs brachte die New York Times einen berühmt gewordenen Leitartikel von Albert Einstein. Offenbar bedauert er, dass der nukleare Flaschengeist freigesetzt worden ist. So geht es manchen Wissenschaftlern. Kürzlich hatten wir ein Interview mit Jennifer Doudna.

SOH Ja, die CRISPR-Cas-Forscherin.

DH Im Interview wirkte sie nicht allzu besorgt, aber in ihrem Buch, das später herauskam, äußert sie Bedenken darüber, was aufgrund ihrer Arbeit nun möglich sein könnte. Wo ist der Punkt, an dem sich ein Wissenschaftler oder eine Wissenschaftlerin fragt, ob etwas jetzt gesagt werden muss, ehe es ein großes öffentliches Thema wird?

SOH Das ist ein Thema, über das wir regelmäßig sprechen. Es gibt eindeutig eine Rolle und eine Verantwortung für Wissenschaftler, zu bedenken, wohin ihre Forschung führen könnte und wie sie für unterschiedliche Dinge genutzt werden kann. Aber wenn wir beschlössen, den wissenschaftlichen Fortschritt wegen all der potenziellen Missbrauchsmöglichkeiten zu stoppen – denken Sie an Elektrizität: Wir hätten die Elektrizität entwickelt und sie dann wegen ihrer unzähligen [negativen] Anwendungen weggeworfen –, aber die Wirkung für die Menschheit ist zweifellos gut gewesen.

Ich denke, es ist wahrscheinlich ein Fehler, den Wissenschaftlern die ganze Verantwortung zuzuschreiben. Auch die Leute, die Forschung finanzieren, veröffentlichen, regulieren und politisch bestimmen, haben ihre Rolle – Gespräche auf jeder Ebene, aber auch an verschiedenen Punkten des Entwicklungs- und Anwendungsprozesses.

DH Sie haben vorhin von Doppelnutzungstechnologien gesprochen [siehe Teil 1]. Können Sie das ein wenig erläutern?

SOH Doppelnutzungstechnologien sind für einen nutzbringenden oder generell unschädlichen Zweck entwickelt, aber geeignet, für eine schädliche Absicht umfunktioniert zu werden.

Ein Beispiel könnte die Forschung über das Grippevirus sein. Man könnte Veränderungen an dem Virus dafür nutzen, genau zu verstehen, wie es in der Natur mutiert, und dadurch die Entwicklung besserer Impfstoffe unterstützen. Die hypothetische Sorge ist: Wenn man vorführt, wie man das Virus gefährlicher oder leichter übertragbar macht, könnte jemand das für einen biologischen Anschlag nutzen. Im Fall der künstlichen Intelligenz ermöglichen grundlegende Fortschritte viele gute Dinge – sei es Freunde auf einem Foto zu identifizieren oder dass ein selbstfahrendes Auto seinen Weg durch die Stadt findet und so einem alten Menschen ermöglicht, zum Haus seiner Familie zu kommen. Doch die gleichen Fortschritte ermöglichen es potenziell einem Kampfroboter, in einem Kampfgebiet mit vielen Hindernissen seinen Weg zu finden und vielleicht durch Gesichtserkennung die Zielperson zu identifizieren, die er töten will.

Selbst wenn es bei der Entwicklung der Technik unser Ziel ist, unseren Gemeinschaften auf verschiedene unschädliche Arten zu helfen, müssen wir darüber nachdenken, ob es Möglichkeiten gibt, dass sie in einem ganz anderen Kontext eingesetzt wird, den wir vielleicht weniger optimistisch sehen.“

Seán Ó hÉigeartaigh

DH Der Bericht „Malicious Use“ über Missbräuche der KI stellt fest, dass sie „Anonymität“ und „psychologische Distanz“ schafft. Was bedeutet das und warum ist es bedenklich?

SOH Es gibt vor allem zwei Gründe. Einer ist, dass man, wenn man jemanden mit einem Messer verletzen will, wirklich nah und persönlich an ihn heran muss. Das ist psychologisch schwierig und vielleicht trägt das mit dazu bei, dass es nicht so oft geschieht. Ähnlich ist es, wenn man auf jemanden schießt und ihm dabei ins Gesicht sehen muss. Dazu muss man alle möglichen Barrieren überwinden. Wenn man dagegen nichts weiter tun muss, als einen fliegenden Roboter loszuschicken, um jemanden zu töten, dem man nie ins Gesicht sehen muss, könnte es dadurch psychologisch leichter werden, bestimmte Aktivitäten anzugehen.

Ein weiterer Grund ist das Problem der Zuordnung. Wenn wir für Sicherheit sorgen wollen, müssen wir in der Lage sein, Leute zu schnappen und Schuld zuzuweisen, ob es ein Roboter ist, der explodiert und jemanden verletzt, oder ein Cyber-Angriff, der ein Stromnetz abschaltet und indirekt den Tod von Menschen verursacht. Wenn man für genug Abstand zwischen dem Angreifer und den Zielen sorgt, indem man z. B. ein System in Gang setzt, das dann autonom agiert, kann es weit schwerer sein, das zu der Person zurückzuverfolgen, die den Angriff ursprünglich in Gang gesetzt hat, was bedeutet, dass es weit schwerer wäre, die Einhaltung von Regeln um uns herum sicherzustellen.

DH Eine weitere in dem Bericht „Malicious Use“ ausgesprochene Sorge betrifft die politische Sicherheit. Sie schreiben, dass Überwachung und Täuschung in autoritären Staaten besonders problematisch sind. Selbst die Wahrhaftigkeit der öffentlichen Meinungsbildung in Demokratien ist in Gefahr. Wie unterstützt KI Propaganda?

SOH Da gibt es mehrere Wege und ich glaube, wir werden nur immer noch weitere entdecken. Einer ist, dass es für mich leichter sein wird, Sie mit meiner politischen Botschaft oder politischen Propaganda zu beeinflussen, wenn ich sie in einem gewissen Ausmaß auf Ihr Persönlichkeitsprofil, Ihre Hoffnungen und Befürchtungen zuschneiden kann.

Wir wissen, dass das im Marketing schon recht gut funktioniert: Durch Analysen von Facebook-Posts kommt man z. B. zu einer groben Vorstellung, ob jemand eher extrovertiert oder introvertiert ist, ängstlich oder sicher und so weiter. Wenn man jemandem eine Werbung für dasselbe Hotel mit zwei verschiedenen Botschaften zeigen kann – einer für den Extrovertierten, die eine große Party am Pool zeigt, und einer für die introvertierte Person, bei der jemand mit einem Buch am Pool sitzt –, steigt die Klickrate furchtbar steil an.

Man kann sich vorstellen, die gleichen Methoden für politische Botschaften anzuwenden. Wenn Sie besonders ängstlich sind, handelt die Botschaft vielleicht von Migrantenhorden, die über die Grenze kommen. Wenn Sie optimistisch sind, ist es vielleicht etwas wie „diese Partei wird viele neue Arbeitsplätze schaffen“. So könnte eine Botschaft gestaltet werden, die in etwa zu Ihrem Profil passt und eine höhere Wahrscheinlichkeit hat, Sie zu beeinflussen. In gewisser Weise ist dies eine Weiterentwicklung der normalen Werbung, aber eine Sorge ist dabei, ob sie irgendwie unsere bewusste Entscheidungsfindung unterläuft.

Es gibt auch direktere Sorgen. Derzeit werden Techniken entwickelt, die künstliche Intelligenz nutzen und die es möglich machen könnten, ein Fake-Video von einem führenden Politiker oder einer führenden Politikerin herzustellen, auf dem er oder sie etwas sagt, was Sie vollkommen widerwärtig finden. Wenn man Informationskanäle mit diesen Fake-Videos überschwemmt, kann es weit schwieriger werden, zu wissen, was wahr ist und was nicht. Nun wird daran gearbeitet, die automatische Identifizierung von Fake-Videos zu ermöglichen, aber kann man einen Gegenbeweis rechtzeitig herausbringen?

DH Gibt es einen Aspekt des Lebens, den KI für uns sicherer macht und wo die Gefahren geringer werden?

SOH SOH In fast jedem Aspekt des Lebens gibt es Möglichkeiten, die Welt mit künstlicher Intelligenz sicherer zu machen. Wir sind dabei, selbstfahrende Autos zu entwickeln. Noch sind einige technische und rechtliche Herausforderungen zu bewältigen, aber ich halte es für höchst wahrscheinlich, dass selbstfahrende Autos weit weniger Unfälle verursachen werden als Menschen, wenn die Technik voll ausgereift ist. Sie werden nicht fahren, wenn sie betrunken sind, sie werden nicht fahren, wenn sie müde sind, sie werden nicht davon abgelenkt, was die Kinder auf der Rückbank treiben.

Ein weiteres Beispiel ist das Gesundheitswesen. Bei vielen Krankheiten ist die Früherkennung entscheidend dafür, einen schlimmen Ausgang zu verhindern. Aber viele der Verfahren, die z. B. zur Erkennung und Therapie von Krebs gehören, sind sehr zeitraubend und erfordern Fachmediziner mit jahrzehntelanger Erfahrung und Ausbildung. Wenn wir viele dieser Verfahren automatisieren können, dann werden diese Therapien plötzlich billiger und schneller für mehr Menschen verfügbar, verkürzen Wartezeiten und retten vielen Menschen das Leben.

Ich glaube, künstliche Intelligenz wird uns helfen, genauere Klimamodelle zu erstellen. Sie wird uns erlauben, unsere Energienetze effizienter zu machen und somit unseren Energieverbrauch zu senken. Google hat vor nur zwei Jahren modernste KI in seine Serverfarmen eingebaut und den Energieverbrauch für die Datenkühlung um 40 % gesenkt. Das ist der Energieverbrauch einer Kleinstadt.

Künstliche Intelligenz wird auch in Katastrophengebieten eingesetzt: Durch Abtasten von Bildern unterstützt sie die Ersthelfer dabei, Prioritäten zu setzen. Mit der Zeit werden wir Roboter haben, die in Gefahrenzonen wie z. B. in Katastrophengebiete gehen können, in denen man kein Menschenleben riskieren will.

In fast jedem Bereich des menschlichen Lebens gibt es eine Möglichkeit, ihn mit künstlicher Intelligenz sicherer zu machen.“

Seán Ó hÉigeartaigh

DH Der Psychologe Kirk Schneider schreibt: „Hightech erfüllt viele Bedürfnisse: zumeist materielle, informationsbezogene und kommerzielle. Was es tendenziell nicht erfüllt, sind ,existenzielle Bedürfnisse‘ – Sinn, Verbundenheit, Ehrfurcht vor dem Leben.“ Was ist Ihre Reaktion?

SOH Ich finde diese Aussage wahr und gleichzeitig nicht wahr. Technik ist nur Technik. Sehr viel kommt darauf an, wie wir sie einsetzen. Ich glaube nicht, dass Technik jemals den menschlichen Kontakt ersetzen wird und dass man Zeit mit seiner Familie verbringt oder zum Wirtshaus hinuntergeht und sich mit jemandem trifft. Das weiß jeder, der sich schon einmal auf Skype unterhalten oder eine E-Mail gesendet hat.

Wenn Technik andererseits Prozesse, die jemandem das Leben erleichtern, automatisiert und ihm ermöglicht, mehr Zeit mit seinen Lieben zu verbringen, dann macht sie es vielleicht einfacher, dieses existenzielle Bedürfnis zu erfüllen. Selbst wenn man das persönliche Beisammensein nicht hat, kann man sich mit Technik einen Menschen vergegenwärtigen, wenn man an Leute in verschiedenen Teilen der Erde denkt. Viele meiner engen Mitarbeiter sind in den USA oder Indien oder Australien. In einem früheren Leben wären sie für mich ein Fakt in einem Buch oder einer Statistik gewesen. Jetzt sind sie reale Menschen: Sollte eine Katastrophe Indien heimsuchen, wären sie für mich reale Menschen.

Ich denke also, dass Technik uns zwar voneinander entfernen und unsere menschlichen existenziellen Bedürfnisse unerfüllt lassen kann, aber auch ihre Erfüllung ermöglichen kann. Es kommt ganz darauf an, wie wir sie nutzen.

DH Stephen Morse, Professor für Recht und Psychologie an der juristischen Fakultät der University of Pennsylvania, hat 2005 bei einer neurowissenschaftlichen Konferenz gesagt: „Wir haben keine Ahnung, wie das Gehirn den Geist aktiviert. Wir wissen eine Menge über die Lokalisierung von Funktionen, wir wissen eine Menge über neurophysiologische Prozesse, aber wie das Gehirn Geisteszustände produziert – wie es bewusste, rationale Intentionalität produziert, wissen wir nicht einmal ansatzweise. Wenn wir das wissen, wird dies die Biowissenschaften revolutionieren.“ Wie sehen Sie das menschliche Gehirn? Ist es für Sie einfach eine andere Art Maschine? Ist es etwas anderes als Geist?

SOH Wenn das Gehirn eine Maschine ist, dann ist es die bei weitem bemerkenswerteste Maschine, die es in unserer Welt gibt, weit jenseits von allem, was wir selbst erschaffen haben. Ich glaube tatsächlich, dass wir das menschliche Gehirn und wie es den menschlichen Geist hervorbringt, eines Tages verstehen werden, jedenfalls sehr viel besser als im Moment. Aber davon sind wir noch weit entfernt.

Das Gehirn besser zu verstehen, wird es uns ermöglichen, die Biowissenschaft und auch die Kognitionswissenschaft zu revolutionieren, und es wird unglaubliche Erkenntnisse über künstliche Intelligenz ermöglichen. Allerdings bin ich nicht sicher, ob wir das menschliche Gehirn und die Tatsache, wie es den menschlichen Geist aktiviert, in jedem Aspekt verstehen müssen, bevor wir wirklich transformative künstliche Intelligenz erschaffen können. In der Vergangenheit haben wir verschiedene Wege gefunden, um zu Lösungen zu kommen. Wir haben Erkenntnisse darüber gewonnen, wie Vögel fliegen, um ein Flugzeug zu entwickeln, aber ein Flugzeug ist, was die Mechanik betrifft, in keiner Weise das Gleiche wie ein fliegender Vogel. Und ich würde behaupten, wir waren in der Lage, bemannte Luftfahrt zu erschaffen, lange bevor wir tiefgehend und richtig verstanden, wie auch nur eine Hummel fliegt.

DH Der Programmleiter für KI am Alan Turing Institute sagte vor Kurzem, er glaube nicht, alles verstehen zu müssen, was zu einer KI-Entscheidung führt. Solange sie in einer Größenordnung von 95 % zuverlässig sei, wäre er zufrieden. Ist das eine Ansicht, die Sie teilen?

SOH Ich bin nicht sicher, dass ich sie teile. Sagen wir, es handelt sich um ein medizinisches Diagnosesystem. Ein Standpunkt wäre: „Nun, wenn es zu 99,9 % richtig liegt und der menschliche Experte zu 99,2 %, dann muss man das medizinische System nicht verstehen, denn es ist einfach besser.“ Ich meine, es hat erheblichen Wert, zu wissen, warum es diese 0,1 % für das KI-System gibt und unter welchen Bedingungen es Fehler macht, denn das können andere sein als die, unter denen der menschliche Experte Fehler machen würde.

Dies wird nur noch wichtiger werden, während wir Systeme mit mehr Fähigkeiten entwickeln, die in immer mehr Prozessen unseres Lebens sind. Wenn menschliche Experten Fehler machen, gibt es oft einen recht guten Grund: Vielleicht waren sie für die spezifische Aufgabe, die sie abarbeiten müssen, nicht genügend ausgebildet, vielleicht waren sie gezwungen, 20 Stunden ohne Pause zu arbeiten, vielleicht haben sie zu lange nichts gegessen. Gefährlich wird es, wenn wir absolut keine Ahnung haben, warum etwas richtig oder falsch ist, selbst wenn die Trefferquote insgesamt höher ist.

DH Eine der inhärenten Gefahren der Anwendung von KI für die Entscheidungsfindung ist, dass  sie vielleicht zwar objektiv ist, aber nicht so fein unterscheiden kann wie ein Mensch. Dies kann z. B. auftreten, wenn es darum geht, ob jemand ins Gefängnis kommen soll oder nicht. Wäre KI in der Lage, eine Entscheidung zu treffen, die Gnade zeigt?

Ich denke, KI wird gute Anwendungen finden, aber wir müssen sie wirklich mit der gebotenen Sorgfalt und Überlegung einsetzen.“

Seán Ó hÉigeartaigh

SOH Diese Systeme werden unweigerlich mit einer Menge historischer Daten trainiert, die wir ihnen geben. Wenn diese Daten die Realität widerspiegeln, in der wir leben und leben wollen, ist das okay. Es ist aber wahrscheinlich, dass sie historische Voreingenommenheiten widerspiegeln. Ein Artikel, der letztes Jahr erschienen ist, berichtete z. B. über die Anwendung künstlicher Intelligenz für Prognosen, ob gegen Kaution freigelassene Straftäter rückfällig werden oder flüchten würden. Es zeigte sich, dass die Freilassung gegen Kaution bei Personen aus wohlhabenden Milieus und mit einer bestimmten Hautfarbe mit deutlich höherer Wahrscheinlichkeit befürwortet wurde.

Wenn die Daten auf Voreingenommenheiten beruhen, könnten wir diese noch steigern oder auf eine gewisse Weise einrasten lassen, was uns daran hindern könnte, uns der gerechteren Gesellschaft zu nähern, in der wir leben wollen. Ein Problem ist, dass man ein KI-System z. B. anhand von Daten aus dem britischen Gesundheitswesen trainieren könnte. Dann wäre es ziemlich gut darin, eine gute Entscheidung für Menschen in Großbritannien zu liefern, denn darauf ist es trainiert worden. Aber dann setzt man es woanders ein – sagen wir in Indien oder Brasilien. Plötzlich hat das System, das anhand einer käsigen britischen Hautfarbe erkennen kann, ob ein Tumor bösartig oder gutartig ist, viel mehr Schwierigkeiten bei jemandem mit dunklerer Haut und deshalb liefert es mehr falsche positive oder mehr falsche negative Befunde. Es gibt den Menschen schlichtweg Fehldiagnosen.

In gewisser Weise ist das menschliches Versagen: Wir sind es, die ein System aus einem Kontext, in dem es trainiert wurde, in einen anderen versetzen. Wenn wir aber KI-Systeme in Entscheidungskontexten einsetzen, müssen wir sehr auf diese Dinge achten. Sind die Umgebungen, in die wir sie einbringen, die gleichen wie die, auf die wir sie trainieren? Sind die Daten, die wir ihnen geben, fair und ausgewogen, oder spiegeln sie historische Voreingenommenheiten wider, die wir in ihren Entscheidungen nicht haben wollen?

Nun sind Menschen auch keine perfekten Entscheidungsfinder. Menschen sind ebenfalls voreingenommen, manchmal mehr als andere. Eine optimistische Perspektive ist, dass wir vielleicht durch sorgsames Einsetzen das Beste aus beiden Welten bekommen könnten – dass KI-Systeme helfen könnten, Voreingenommenheiten aufzudecken, die wir zuvor nicht wirklich bedacht hatten, und uns auch helfen könnten, menschliche Unvernünftigkeiten zu überwinden, z. B. menschliche Fehlentscheidungen, wenn wir müde sind oder mittags nichts gegessen haben, oder einfach menschliche Voreingenommenheiten, die uns nicht bewusst sind, sich aber dennoch in unseren Entscheidungen abbilden.

DH Sind Sie insgesamt optimistisch oder pessimistisch? Werden wir es bis zum Ende des 21. Jahrhunderts schaffen?

SOH Ich bin von Natur aus ein optimistischer Mensch. Das muss man sein, wenn man den ganzen Tag an diese Dinge denkt, denn sonst fiele es schwer, zur Arbeit zu kommen. Es gibt legitime Gründe zur Sorge. Andererseits tragen wir auch dazu bei, das Los aller Menschen auf der Erde zu verbessern. Heute leben weniger Menschen in absoluter Armut als früher. Die Prinzipien der Menschenrechte gelten für mehr Menschen als je zuvor und wir lernen, unsere Mitmenschen überall auf der Erde als Menschen anzuerkennen, wie wir selbst es sind, die ein Leben haben wie wir und die das gleiche Recht haben wie wir, das Leben und die Zukunft zu betrachten.

Es ist dieses gemeinsame, globale Verständnis, das wir entwickeln müssen, und das uns ein nachhaltiges Leben sowohl auf unserer Erde als auch in der Entwicklung sehr leistungsstarker Technik in den kommenden Jahrzehnten ermöglichen wird.