Interview: KI gefährlich wie Atombombe

Der Konzern Toyota investierte kürzlich eine Milliarde Dollar für Künstliche Intelligenz. Foto: dpa Foto: red

Steht uns der Aufstand der Maschinen bevor? Kann Google ein menschliches Gehirn simulieren? Und wieso ist FIFA 2016 so verflucht schwierig? Der Bayreuther Informatiker Michael Guthe im Interview über Chancen und Risiken der Künstliche-Intelligenz-Forschung.

 
Schließen

Diesen Artikel teilen

Herr Professor Guthe, der Astrophysiker Stephen Hawking hat kürzlich vor den Gefahren der Künstlichen Intelligenz gewarnt: „Eine solche Intelligenz könnte sich selbst perfektionieren und wäre dem Menschen deutlich überlegen.“ Teilen Sie diese Einschätzung?
Michael Guthe: Nun, ich kann sie jedenfalls nachvollziehen. Die Künstliche-Intelligenz-Forschung ist heute in einer ähnlichen Situation wie die Physik vor 100 Jahren. Wir sind in der Lage, Programme zu erschaffen, die so zerstörerisch sein können wie die Atombombe. Das stellt uns vor große ethische Probleme. Ich glaube zwar nicht, dass Hawkings Befürchtung in naher Zukunft wahr werden kann. Aber es gibt definitiv Risiken.

Last Week Tonight with John Oliver: Stephen Hawking über die Gefahren Künstlicher Intelligenz:

… zum Beispiel?
Guthe:Künstliche Intelligenz wird längst in vielen Assistenzprogrammen angewendet, also in Programmen, die uns bestimmte Aufgaben abnehmen sollen. Denken Sie an das Navigationssystem, den Bremsassistenten im Auto oder Spracherkennungssoftware auf dem Handy. Diese Programme sind – wie alle Programme – anfällig für Viren und Hackerangriffe.

Welche Auswirkungen könnten solche Störungen haben?
Guthe: Selbstfahrende Autos zum Beispiel – die wird es in ein paar Jahren geben. Es ist nur eine Frage der Zeit, bis es Viren geben wird, die gezielt Unfälle verursachen werden. Das ist ein gewaltiges Problem. Grundsätzlich gilt: Wann immer man eine KI entwickelt, muss man sich sehr gut überlegen, welche Fähigkeiten man ihr gibt, denn alle Fähigkeiten können natürlich entgegen der ursprünglichen Absicht des Entwicklers eingesetzt werden.

Ich höre heraus, dass Sie den Terminator eher nicht bauen würden.
Guthe: Auf keinen Fall! Die Filme zeigen den Terminator als eine selbstbewusste Künstliche Intelligenz, die in einen humanoiden Roboter eingebaut ist. Selbstbewusstsein macht die Handlungen eines Systems aber absolut unvorhersehbar. Deshalb sollten wir den Terminator nicht bauen. Das ist ja mehr oder weniger Hawkings Sorge.

Der Terminator ist Science Fiction. An intelligenten Waffensystemen dagegen wird längst geforscht …
Guthe: Das sehe ich sehr kritisch. Schon der Grundgedanke, Algorithmen einzusetzen, um zu entscheiden, ob ein Mensch angegriffen wird oder nicht, ist ethisch hochproblematisch. Soweit ich weiß, forscht das US-Militär an entsprechenden Projekten. Einsatzfähig sind sie aber noch nicht. Die Personenerkennung ist nicht ausgereift genug.

Gibt es schon konkrete Fälle, in denen Künstliche Intelligenzen Schäden verursacht haben?
Guthe: Ja. Vor ein paar Jahren haben weltweit viele Banken in ihren Börsengeschäften dieselbe KI eingesetzt, die das Börsengeschehen analysiert, Käufe und Verkäufe getätigt hat. Wenn der Algorithmus festgestellt hat, dass eine Aktie steigen würde, wurde sie automatisch massenhaft gekauft. Woraufhin sie tatsächlich im Kurs gestiegen ist – und wieder massenhaft verkauft wurde. Das hat sich laufend wiederholt. Letztlich war es dann ziemlich zufällig, wer Gewinn und wer Verlust gemacht hat. Mittlerweile wird diese KI nicht mehr eingesetzt. Das Konzept dahinter – das sogenannte Unsupervised Learning – ist aber nach wie vor ein vielversprechendes Forschungsgebiet.

Worum geht es da?
Guthe: Viele Datenbestände sind zu groß, als dass ein Mensch sie jemals überblicken könnte. Die Idee beim Unsupervised Learning: Wir entwickeln ein System, das solche Daten vorsortiert, indem es Muster erkennt und Datensätze in Kategorien einsortiert. Google hat vor einiger Zeit zum Beispiel einen Versuch mit einer KI gemacht, die Bilder ausgewertet hat. Diese KI hat hunderttausende Bilder ausgewertet und dann bestimmte abgebildete Figuren in bestimmte Schubladen einsortiert. Da gab es dann zum Beispiel eine Schublade voller Katzen-Abbildungen.

Die KI hat also selbstständig gelernt, was eine Katze ist?
Guthe: Nein, dafür braucht es dann doch noch den Menschen. Die KI hat erkannt: In den Bildern, die ich ausgewertet habe, gibt es eine Klasse von Figuren, die ähnliche Eigenschaften haben. Aber dass diese Figuren „Katzen“ sind – und was das überhaupt bedeutet –, wusste die KI nicht.

Sie beschäftigen sich in ihrer Forschung vor allem mit Künstlichen Intelligenzen in Computerspielen. Warum ist FIFA 2015 so verflucht schwer?
Guthe: Das ist ein ziemlich kurioser Fall. Der Entwickler des Spiels hat die Künstliche Intelligenz schlicht zu gut gemacht. Im höchsten Schwierigkeitsgrad ist sie praktisch unschlagbar. Das hat unter Spielern für viel Unmut gesorgt. Es gibt Spiele, die Künstliche Intelligenz innovativer einsetzen.

Zum Beispiel?
Guthe: „Black and White“ von 1999 ist nach wie vor ziemlich interessant. Der Spieler erzieht darin eine Kreatur. Das Spiel setzt eine lernende Künstliche Intelligenz ein. Der Spieler kann Verhalten erzeugen. Nur ein bizarres Beispiel: Ein Spieler hat seine Kreatur soweit gebracht, dass sie nur isst, wenn sie vorher geschlagen wird. Sehr interessant sind auch die verschiedenen Künstlichen Intelligenzen zu Starcraft. Die spielen zum Teil auf sehr hohem Niveau.

"Black and White" (1999): In dieser Simulation schlüpft der Spieler in die Rolle eines Gottes. Er kontrolliert eine Kreatur, die durch Interaktionen lernt:

Starcraft und Black and White – beides Strategiespiele.
Guthe: Künstliche Intelligenz findet auch in anderen Genres Anwendung. „Facade“ zum Beispiel ist ein Adventure mit offenem Verlauf – das ist auch sehr interessant.

Letzte Frage: Wird es – in ferner Zukunft – möglich sein, den menschlichen Geist nachzubauen?
Guthe: Ich glaube nicht, dass der menschliche Geist Eigenschaften hat, die eine KI nicht ebenfalls haben könnte. Der Grund ist einfach: Je genauer wir das menschliche Gehirn verstehen, desto besser sind wir in der Lage, es nachzubauen. Aber das wird noch lange dauern. Google hat vor ein paar Jahren verkündet, sie seien jetzt imstande, ein neuronales Netz zu simulieren, das so viele Neuronen habe wie ein menschliches Gehirn. Das mag sein – aber die Verarbeitungsgeschwindigkeit ist viel, viel langsamer. Das Gehirn, das Google – theoretisch! – simulieren könnte, wäre ziemlich lahm.

Michael Guthe ist Professor für Angewandte Informatik mit dem Schwerpunkt Graphische Datenverarbeitung an der Universität Bayreuth.


Das Gespräch führte Christophe Braun

 

 

 

 

 

Autor

Bilder