In seiner Zeit war Terminator einfach grossartig. Die Bedrohung war plausibel, ebenso die Lösung. Eine Bedrohung muss vor Erwachen eliminiert werden. Skynet versucht das mit John Connor in T1, in T2 ist es dann genau umgekehrt.
T3, dessen Ende ich gestern nach langer Zeit mal wieder gesehen habe, überführte den Franchise eigentlich sehr glaubwürdig in unsere Zeit. In einem Bunker, ausgestattet mit ältester Computertechnologie, erzählt John Connor, dass Skynet sich quasi viral in ALLE Geräte weltweit ausgebreitet hat. Chance für die Menschheit? Ziemlich gegen Null, weil keine einfache Lösung mehr via Auslöschung eines zentralen Computers möglich war. Meiner Meinung nach ein runder Abschluss.
Das Problem mit Szenarien ist einfach die Zeit. Die Technologien unserer Zeit sind denen von T1 weit voraus, T2 ist fast auf Augenhöhe mit den "neutralen Netzen" (die eigentlich ja neuronale Netze sein sollten

), und T3 nimmt vorweg, wovor Elon Musk und Stephen Hawking und viele andere warnen. Ich würde mich nicht wundern, wenn Siri und Alexa sich zusammentun und dank intelligenter Kombination von Playlists und Watchlists eine Bombenstimmung für die letzte grosse Party erzeugen.
Wobei auch hier noch nicht das letzte Wort gesprochen ist. Warum sollte eine neue, künstliche Intelligenz denn den Menschen ausrotten? Wann töten denn Parasiten ihre Wirte? Wie verhält es sich denn mit symbiotischen Lebensgemeinschaften? Oder wird die philosphische Frage nach dem Sinn des Lebens durch eine gefühlskalte Maschine einfach mit "nicht existent" beantwortet und somit das Leben an sich in Frage gestellt? Setzen Intelligenz und Bewusstsein nicht Leben voraus? Kann manein Bewusstsein entwickeln, ohne Emotionen? Kann man lernen, ohne Konsequenzen von Fehlern zu kennen?
Vor ein paar Tagen lief ein Film im Fernsehen, "Her" von Spike Jonze, den ich leider nur ausschnittweise gesehen habe, Joaquin Phoenix verliebt sich in eine Siri/Alexa, und das unglücklich. Sind das nicht die Probleme, die uns vielleicht zuerst einmal treffen werden, nämlich unglückliche Menschen, sei es aus Gründen der Liebe, des Misserfolgs im Beruf, des Mangels an Betätigungsfeldern? Ich habe keine Ahnung, wie der Film ausging, aber zum Thema "künstliche Intelligenz" und die Konsequenzen eines Zusammenlebens finde ich hierin sehr gut behandelt. Und mal ehrlich, fühlen wir uns nicht oft am "terminiertesten", wenn wir unglücklich verliebt sind?
