Ich höre heraus, dass Sie den Terminator eher nicht bauen würden.
Guthe: Auf keinen Fall! Die Filme zeigen den Terminator als eine selbstbewusste Künstliche Intelligenz, die in einen humanoiden Roboter eingebaut ist. Selbstbewusstsein macht die Handlungen eines Systems aber absolut unvorhersehbar. Deshalb sollten wir den Terminator nicht bauen. Das ist ja mehr oder weniger Hawkings Sorge.
Der Terminator ist Science Fiction. An intelligenten Waffensystemen dagegen wird längst geforscht …
Guthe: Das sehe ich sehr kritisch. Schon der Grundgedanke, Algorithmen einzusetzen, um zu entscheiden, ob ein Mensch angegriffen wird oder nicht, ist ethisch hochproblematisch. Soweit ich weiß, forscht das US-Militär an entsprechenden Projekten. Einsatzfähig sind sie aber noch nicht. Die Personenerkennung ist nicht ausgereift genug.
Gibt es schon konkrete Fälle, in denen Künstliche Intelligenzen Schäden verursacht haben?
Guthe: Ja. Vor ein paar Jahren haben weltweit viele Banken in ihren Börsengeschäften dieselbe KI eingesetzt, die das Börsengeschehen analysiert, Käufe und Verkäufe getätigt hat. Wenn der Algorithmus festgestellt hat, dass eine Aktie steigen würde, wurde sie automatisch massenhaft gekauft. Woraufhin sie tatsächlich im Kurs gestiegen ist – und wieder massenhaft verkauft wurde. Das hat sich laufend wiederholt. Letztlich war es dann ziemlich zufällig, wer Gewinn und wer Verlust gemacht hat. Mittlerweile wird diese KI nicht mehr eingesetzt. Das Konzept dahinter – das sogenannte Unsupervised Learning – ist aber nach wie vor ein vielversprechendes Forschungsgebiet.
Worum geht es da?
Guthe: Viele Datenbestände sind zu groß, als dass ein Mensch sie jemals überblicken könnte. Die Idee beim Unsupervised Learning: Wir entwickeln ein System, das solche Daten vorsortiert, indem es Muster erkennt und Datensätze in Kategorien einsortiert. Google hat vor einiger Zeit zum Beispiel einen Versuch mit einer KI gemacht, die Bilder ausgewertet hat. Diese KI hat hunderttausende Bilder ausgewertet und dann bestimmte abgebildete Figuren in bestimmte Schubladen einsortiert. Da gab es dann zum Beispiel eine Schublade voller Katzen-Abbildungen.
Die KI hat also selbstständig gelernt, was eine Katze ist?
Guthe: Nein, dafür braucht es dann doch noch den Menschen. Die KI hat erkannt: In den Bildern, die ich ausgewertet habe, gibt es eine Klasse von Figuren, die ähnliche Eigenschaften haben. Aber dass diese Figuren „Katzen“ sind – und was das überhaupt bedeutet –, wusste die KI nicht.
Sie beschäftigen sich in ihrer Forschung vor allem mit Künstlichen Intelligenzen in Computerspielen. Warum ist FIFA 2015 so verflucht schwer?
Guthe: Das ist ein ziemlich kurioser Fall. Der Entwickler des Spiels hat die Künstliche Intelligenz schlicht zu gut gemacht. Im höchsten Schwierigkeitsgrad ist sie praktisch unschlagbar. Das hat unter Spielern für viel Unmut gesorgt. Es gibt Spiele, die Künstliche Intelligenz innovativer einsetzen.
Zum Beispiel?
Guthe: „Black and White“ von 1999 ist nach wie vor ziemlich interessant. Der Spieler erzieht darin eine Kreatur. Das Spiel setzt eine lernende Künstliche Intelligenz ein. Der Spieler kann Verhalten erzeugen. Nur ein bizarres Beispiel: Ein Spieler hat seine Kreatur soweit gebracht, dass sie nur isst, wenn sie vorher geschlagen wird. Sehr interessant sind auch die verschiedenen Künstlichen Intelligenzen zu Starcraft. Die spielen zum Teil auf sehr hohem Niveau.
"Black and White" (1999): In dieser Simulation schlüpft der Spieler in die Rolle eines Gottes. Er kontrolliert eine Kreatur, die durch Interaktionen lernt:
Starcraft und Black and White – beides Strategiespiele.
Guthe: Künstliche Intelligenz findet auch in anderen Genres Anwendung. „Facade“ zum Beispiel ist ein Adventure mit offenem Verlauf – das ist auch sehr interessant.
Letzte Frage: Wird es – in ferner Zukunft – möglich sein, den menschlichen Geist nachzubauen?
Guthe: Ich glaube nicht, dass der menschliche Geist Eigenschaften hat, die eine KI nicht ebenfalls haben könnte. Der Grund ist einfach: Je genauer wir das menschliche Gehirn verstehen, desto besser sind wir in der Lage, es nachzubauen. Aber das wird noch lange dauern. Google hat vor ein paar Jahren verkündet, sie seien jetzt imstande, ein neuronales Netz zu simulieren, das so viele Neuronen habe wie ein menschliches Gehirn. Das mag sein – aber die Verarbeitungsgeschwindigkeit ist viel, viel langsamer. Das Gehirn, das Google – theoretisch! – simulieren könnte, wäre ziemlich lahm.
Michael Guthe ist Professor für Angewandte Informatik mit dem Schwerpunkt Graphische Datenverarbeitung an der Universität Bayreuth.
Das Gespräch führte Christophe Braun