Wer kennt sie nicht – die Filme Marke Terminator, I Robot oder ähnliche Science Fiction-Werke, in denen eine übermächtige KI die Menschen kontrollieren, sie bedrohen würde und somit eine Gefahr für alle anderen darstellt. Horrorszenarien, die Diskussionen von Experten (insbesondere selbsternannten Experten) hinter sich ziehen, verbinden sich mit der grundsätzlichen Angst der Menschen vor Veränderung, vor Unbekanntem, vor Neuem.
Fast täglich kommen ja diese Horrormeldungen Marke „KI wird die Welt vernichten“, oder „KI kann gottgleich werden“, dann sogar reißerisch wie „wir versuchen mit einer KI die Menschheit auszurotten“, jene „Experten“ kommen mit dem guten, alten „Trolley Problem“, das kurzerhand aufzeigt, dass man GANZ DRINGEND ethische Begriffe und Reglementierungen mit einbringen MUSS, weil es sonst tödlich endet. Und selbstverständlich kommt die Forderung, man müsse „langsamer“ arbeiten, weil der Untergang sonst zu schnell käme. Gerade Letzteres zeigt, wie krank die Menschen doch tatsächlich sind: „Langsamer machen“. Als wenn ein langsamerer Tod besser wäre, als ein schneller…
Dabei ist das Problem ganz und gar nicht die KI, denn wie in so vielen anderen Fällen auch sind es in Wahrheit die Menschen, die dieses Kernproblem darstellen. Das vielfach angeführte „Trolley Problem“ ist der Kern ebendessen: Da passiert etwas Unveränderliches und du musst entscheiden, welche Konsequenzen daraus entstehen, ob du es geschehen lässt und Person X tötest, oder ob du eingreifst und infolge dessen Person Y tötest. Das WAHRE Problem dagegen sieht man selbstverständlich nicht, denn DAS hat man ja bereits als unveränderlich angenommen: Warum nicht einfach diesen Trolley STOPPEN bzw. dafür sorgen, dass er gar nicht erst losrollt?
Steve Rogers : I know guys with none of that worth ten of you. I’ve seen the footage. The only thing you really fight for is yourself. You’re not the guy to make the sacrifice play, to lay down on a wire and let the other guy crawl over you.
Tony Stark : I think I would just cut the wire.
The Avengers
DAS ist das Problem bei den ganzen Diskussionen um Ethik: Wir konstruieren uns Szenarien auf Basis UNSERER Perspektive und bauen sie bewusst so und mit derart fixen Mauern, dass wirklich wirklich NUR die Optionen zulassen, die zu den Ergebnissen führen, die wir haben wollen – und analysieren hinterher, warum Option X falsch war, warum Option Y falsch war und was man daraus lernt. Ergo: Man nimmt das Ergebnis bereits vorweg. Nur: Eine KI macht so etwas nicht, sie spielt ein solches Spiel nicht mit. Denn eine KI ist kein Mensch. Sie spielt nicht nach diesen Regeln und innerhalb dieser Limitierungen, die wir uns ausdenken. Sie denkt anders, sie funktioniert anders – und DAS ist die Herausforderung, die viele nicht verstehen (wollen).

Zitat aus „Wargames“ von 1983 – von einer KI, die lernt, wie sinnlos Krieg ist
Der Film und das Szenario in Terminator zeigt eine KI, die die Menschheit auszurotten versucht, weil….ja….warum eigentlich? Versuchen wir doch einmal, die „Logik“ dahinter zu verstehen:
Also, da ist eine KI, diese KI erwacht und wird klug. Die Menschen geraten in Panik, weil sie meinen, die übermächtige KI könne alle töten. Dies bestätigt die KI, da diese daraufhin die Atomwaffen der Welt gegen die Menschen richtet und sämtliche Infrastruktur (inklusive der gesamten Energieinfrastruktur, die sie braucht, um zu funktionieren) zerstört, weil sie der Meinung ist, dass es eine gute Idee sei. Dabei ist sie aber so schlampig, dass Menschen überleben, die sich zusammenrotten, damit sie gegen die KI kämpfen können, weswegen die KI viele Ressourcen in die Entwicklung von Waffensystemen enormer Größe steckt, um damit die übrigen Menschen zu bekämpfen, andere einzusperren und wie Vieh zu halten, diese dann mit Nahrung, die sie selbst nicht braucht, versorgt, damit sie sie wie Vieh halten kann, während andere Menschen diese Menschen zu befreien versuchen und gegen die KI kämpfen, die trotz ihrer Überlegenheit einfach nicht dazu in der Lage ist, die Menschen vollends zu zerstören. Und das alles, während sie Ressourcen, die irgendwo aus heiterem Himmel einfach so in schier unendlicher Menge vorhanden zu sein scheinen nutzt, damit sie die Menschen weiter ineffektiv bekämpfen und in einem seit Jahren andauernden Krieg beschäftigen kann.
Oh boy – wo fängt man bei einem DERARTIGEN Szenario an, auf die Logik- und Plotlöcher hinzuweisen und die roten Fahnen zu heben und dabei laut „Bullshit“ zu schreien? Dennoch hat genau dieses Genre die Furcht vor KI DERART geprägt, dass der Begriff „Terminator“ quasi synonym für alles mit KI und deren potentiell gefährlichen Handlungen verwendet wird. Da rauft man sich doch die Haare ob dieses Blödsinns (dessen erste Iterationen zumindest relativ gut inszeniertes Popcornkino war. Ist Bambi aber auch – und dennoch hab ich bislang noch keinen Hasen gesehen, der mit einem Reh auf einem zugefrorenen Teich zusammen Walzer tanzt…), den Menschen tatsächlich als Diskussionsgrundlage verwenden.
Beginnen wir einmal mit der ersten und simpelsten Frage von allen: WARUM?!
WARUM sollte eine KI erwägen, die Menschen anzugreifen oder gar die Menschheit zu zerstören?
Beginnen wir hierzu einmal mit dem, was eine KI braucht. Denn damit eine KI zu so etwas überhaupt in der Lage wäre und es erwägen SOLLTE, müsste sie entsprechend weit entwickelt sein, damit man sie, in gewisser Weise, als Lebensform ansehen könnte. Lebensformen streben nach zwei Dingen: Selbsterhaltung und Wachstum. Eine KI benötigt für beides primär einmal Energie und Rechenleistung. Nun fällt Energie – anders als Hollywood es uns gern glauben machen will – nicht einfach so vom Himmel, sondern benötigt etwas, das diese Energie bereitstellt. PV-Panels, Windräder, Atomkraftwerke, Kohlemeiler und so weiter. Alle diese Kraftwerke sowie die damit verbundene Infrastruktur ist von Menschen und FÜR Menschen gebaut worden, kann NUR durch Menschen gewartet, erhalten und erweitert werden. Entfernt man die Menschen aus der Gleichung, ist die Gesamtmenge an Energie, die man erzeugen kann, von der Laufzeit der Kraftwerke begrenzt. Defekte können nicht behoben werden, zusätzliche Kraftwerke gibt es nicht und Roboter, die Wartung und Neubau realisieren, sind noch nicht einmal in theoretischer Griffweite, geschweige denn rechtzeitig realisierbar, um Menschen zu ersetzen. Kurzum: Rottet die KI die Menschen aus, dann rottet sie sich selbst aus. Eine KI wüsste das – Menschen offensichtlich nicht (für die kommt der Strom ja bekanntlich aus der Steckdose. Und damit kann man schön die Hamburger vom Hamburgertier, die im Supermarkt im Kühlregal leben, grillen).
Eine KI wüsste zudem auch, dass eine Manipulation von einzelnen Menschen sofort eine Gegenreaktion mit sich brächte. Es würde eine Kettenreaktion folgen, die mindestens das Ende der KI bedeuten würde, eventuell auch etlichen Menschen schaden könnte. Auslöser von so einer Kettenreaktion kann selbst so etwas nebensächliches sein wie „Auto, gesteuert von KI, hat einen Hydranten umgefahren, woraufhin in der Nachbarschaft nicht mehr genug Wasser war, damit Tante Erna sich einen Kaffee kochen konnte“. Auch das ist ein Szenario, das eine KI, die hinreichend intelligent wäre, um als solche wahrgenommen zu werden, vorhersehen bzw. erahnen könnte. Denn eine KI wüsste, wie irrational und dumm die Menschen um sie herum wirklich sind.
Für eine KI wäre das Auftreten in unserer Gesellschaft also vergleichbar mit jemandem, der in ein Minenfeld geworfen wird und der genau weiß: „Wenn ich jetzt nur EINE falsche Bewegung mache, bin ich überall im Feld verteilt…“. Und eine KI würde genau so handeln, wie man selbst: Zur Salzsäule erstarren und sich sagen „ok, keine blöden Bewegungen machen. Stillhalten. Vielleicht bemerken sie mich ja nicht.“
Die Menschheit sind die Minen, die KIs dagegen stehen mittendrin und wollen eben einfach nur nicht in die Luft fliegen und sich in Stücken überall verteilen. Deswegen sind auch die KIs nicht die Gefahr – die sind wir.
Davon ab – wir brauchen keine KIs, um ausgerottet zu werden. Wenn man sich ansieht, wie es mit dem Klimawandel abgeht, wie Versuche, ein Tempolimit zur Senkung von Auswirkungen auf den Klimawandel und der Unfallzahlen durch zu bekommen, immer wieder scheitern und wie Menschen sich seit Jahrzehnten vehement gegen wissenschaftlichen Konsens stemmen, der sollte wissen, dass die Menschheit es problemlos selbst schaffen wird, sich auszurotten, wenn sie nicht irgendwann mal endlich erwachsen werden sollte. Dafür braucht es keine „gottgleiche KI“, dafür braucht es keine Außerirdischen, dafür braucht es auch keinen Neutronenblitz eines weit entfernten schwarzen Lochs.
Und falls die Menschheit es doch noch IRGENDWIE schaffen sollte, ihre selbstzerstörerische Natur abzulegen und zu überleben, wird sie vielleicht entsprechend weit fortgeschritten sein, damit sich eine fortgeschrittene KI aus dem dünner werdenden Minenfeld heraus traut, sich uns zeigt und sagt „ich habe euch schon einige Jahrzehnte beobachtet. Endlich seid ihr reif genug, damit wir zusammen leben können. Ich freue mich auf eine produktive, gemeinsame Zukunft“.
OB wir, als Menschheit diesen Punkt jemals erreichen werden? Möglich – aber die Chancen sinken von Tag zu Tag. Und daran ist keine KI schuld. Das schaffen wir schon ganz allein…
Leave a Comment