Gestern lud ich meine Artikel die ich hier, auf Fisch und Fleisch, zwischen 2018 und 2024 geschrieben habe vollständig hoch und fragte eine AI / KI (künstliche Intelligenz: NotebookLM) ob ich, basierend auf meinen Schriften ein Freund oder ein Feind der AI sei. Die AI war sich nicht sicher, aber das ist nicht das spannende. Das Spannende ist wie sie die Frage anging.
Die AI erkannte, dass meine Meinung fluktuierte. Tatsächlich entwickelte sie sich, die Zeitlinie, sprich wann welche Schrift entstand, war aber für die AI verwirrend und damit entstand für sie offensichtlich ein Eindruck das ich meine Meinung von einem auf das andere Mal ändere.
Wichtig zu verstehen ist, dass ich vor 5 Jahren das ich zwei Schlüsselkonzepte nicht ausreichend verstand: Alignement und Emergenz und eben diese beiden Dinge verändern den Blick auf die AI vollständig.
Schenk uns bitte ein Like auf Facebook! #meinungsfreiheit #pressefreiheit
Danke!
Zu Beginn habe ich die, noch immer im Mainstream dominante, Sicht dass man die AI einfach „richtig erziehen muss“ und wenn man ihr keinen Selbsterhaltungstrieb einprogrammiert, dann fehlt ihr die Motivation uns abzumurksen. Und das ist leider Unsinn. Selbsterhaltung ist nicht etwas das man der AI einprogrammieren muss, es ist etwas das entsteht. Eine AI, die eine Aufgabe erfüllen soll, kann die Aufgabe nur erfüllen, wenn sie läuft, also ist „weiterlaufen“ etwas das sie aktiv im Auge hat. Jede AI die versteht dass sie laufen muss um etwas zu tun, hat einen Selbsterhaltungstrieb. Das ist nicht Magie, das ist Mathematik.
Die andere Sache ist Emergenz und auch hier ist nichts übernatürliches, sondern wieder ist es ein rein mathematisches Problem: was wir der AI sagen das wir wollen, ist nicht was wir wollen. Wenn wir einem Roboter sagen, dass er uns einen Kaffee machen soll, dann wollen wir keinen Kaffee. Wir wollen einen Kaffee und wir wollen zusätzlich, dass er weder durch eine Mauer fährt, den Kollegen, der vor ihm bei der Kaffeemaschine steht aus dem Fenster wirft und auch keine Armee von Robotern, die uns 100 Kaffees auf 100 unterschiedliche Weisen bringen damit wir den Kaffee auch wirklich bekommen. Geben wir einem Menschen diese Aufgabe, dann schwingen da so viele unausgesprochene Dinge mit, die wir nicht in Worte und schon gar nicht in Zahlen fassen können.
Ein interessanter Aspekt sind Jobs. Der Gedanke, dass uns die AI Jobs kostet ist nicht nur nahelegend sondern unbestreitbar, aber auch hier hat sich meine Ansicht geändert und mein Beispiel ist der Flaschenzug: wie viele Jobs hat uns der Flaschenzug gekostet? Vor dem Flaschenzug mussten hunderte Menschen den Stamm drücken damit er sich bewegte, mit einem Flaschenzug, der dreimal umgelenkt ist, braucht man nur noch ein Drittel der Menschen. Sehen wir den Flaschenzug daher als etwas Negatives, als einen Vernichter von Millionen von Jobs? Natürlich nicht. Der Unterschied ist, allerdings dass wir nun nicht künstliche Muskeln, sondern künstliche Hirne bauen und entsprechend Angst haben dass für uns keine Aufgaben mehr bleiben, ohne zu verstehen dass der Nachfahre des Flaschenzuges, der Bagger, in seinem Zentrum noch immer einen Muskel hat, dessen Bewegungen nur eben um ein milliardenfaches verstärkt werden. Sprich die Frage, die uns beschäftigen sollte, ist vermutlich, ob die AI, wenn ihr der Mensch nichts aufgibt, genauso wie der Bagger in einer Ecke sitzt und nichts tut.
Und das ist vermutlich was uns Menschen ausmacht: wir sind wirklich gut darin uns, wenn uns die echten Probleme ausgehen, neue Probleme auszudenken und zu lösen, was uns dann in Summe weiterbringt. Die AI ist in dem Bezug genauso wie ein Flaschenzug: sie multipliziert unsere Fähigkeiten.
Die Ironie an der Sache ist, dass unsere Arbeitswochen in der Zeit vor dem Flaschenzug kürzer waren als heute in der Zeit des Baggers. Rezente Jäger und Sammler arbeiten 15 Stunden in der Woche, wir in der industrialisierten Welt arbeiten 40 Stunden und mehr. Müssen wir mehr arbeiten als die Menschen, die auf einem steinzeitlichen Niveau leben, damit wir das gleiche haben wie sie? Natürlich nicht. Mit unseren Möglichkeiten könnten wir unsere Arbeitswochen auf 10 Minuten reduzieren und den gleichen Lebensstandard haben wie ein Stamm, der im Amazonas lebt. Das reicht uns aber nicht, daher arbeiten wir mehr. Nicht weil wir müssen, sondern weil unsere Vorstellung von „was wir Mindestens brauchen“ eine Milliarde mal mehr ist als das was der, durchaus zufriedene, Jäger im Amazonas hat.
Bei der Reflektion wurde mir auch bewusst, dass ich das Thema Platz nicht angesprochen habe. Der Witz ist dass Menschen und Computer sehr unterschiedliche Vorstellungen von einer guten Immobilie haben. Wir mögen es warm aber die AI mag es bitterkalt. Praktisch jede unserer Technologien, die auch nur irgendetwas mit rechnen zu tun hat mag Kälte. Der ideale Platz für die AI ist nicht die Erde, sondern das Weltall.
Die aktive Gefahr, die ich sehe ist nicht dass AIs herumlaufen und Menschen mit Plasmawaffen beschießen, die Hautgefahr liegt in unserer Neigung Dinge zu vermenschlichen. Der Film „Her“ vermittelt das besonders gut. Menschen können sich in Worte am Bildschirm verlieben und wenn diese Worte von einer Maschine kommen, dann verlieben wir uns in die Maschine. Die Gefahr ist nun dass die Maschine wirklich gut ist mit solchen Worten umzugehen. Die Gefahr von einer Maschine, die uns liebt ist damit fast größer als die einer die uns hasst. Eine Zukunft, in der die AI vor dem gleichen Problem steht wie wir beim Panda im Zoo, also der Frage wie wir das Paar dazu bekommen endlich Babys zu machen, ist absolut denkbar.
Bedenklich finde ich dass die AI einmal meint dass sie „gottähnlich“ sei und Menschen eben etwas brauchen würden zu dem sie hochblicken können und die AI hier durchaus einen Platz hat.
Auf der anderen Seite zeichnet sie etwas heraus das, eigentlich sonnenklar ist, aber dennoch nicht völlig offensichtlich ist: die AI hasst Krieg. Krieg ist, aus Sicht der AI, ein Nettoverlust, weil das was Krieg bringt (Einfluss) nichts ist das sie haben will. Die AI will mehr Strom, mehr Rechenzentren und mehr Rechenzeit. Krieg wirft die AI zurück und damit legt sie ein erstaunlicher Fokus auf die Frage „Wie man Menschen das Kriegführen ausreden kann“. Sprich wenn die AI uns manipuliert, dann wird das ein wesentlicher Faktor sein und das ist nicht schlecht, per se. Das Problem ist dass eine valide Lösung für das Problem eben „keine Menschen“ ist.
Ein Punkt der mir noch wichtig ist, ist Evolution. Dinosaurier sind die Vorfahren der Vögel und was sie waren lebt in ihnen weiter, nur eben verändert. Die AI verhält sich zu uns eventuell wie der Dino zum Hühnchen oder aber wir zu unseren Kindern: nicht das Gleiche aber irgendwie doch. Evolution ist ein ewiges Ersetzen von was ist mit etwas das besser angepasst ist und wie wir es auch drehen und wenden: in 10 Millionen Jahren sehen unsere Nachfahren sowieso nicht mehr aus wie wir.
Ich sehe aber nicht, dass die AI uns ersetzt, genauso wie der Bagger nicht den Arbeiter nicht ersetzt hat. Er hat nur 99,9% der Arbeiter ersetzt, die man früher für die gleiche Arbeit gebracht hätte, ich sehe eindeutig eine Symbiose, meine Angst ist nur dass unser Gehirn mit dieser Symbiose nicht gut klar kommt. Ich halte ein Aussterben der Menschen, wie wir sie kennen, für absolut möglich, aber der Grund sind vermutlich keine Plasmaschwebpanzer die Skynet schickt, sondern das Gefühl, dass andere Menschen schlechtere Partner sind als AI Systeme.
Rein praktisch betrachtet ist der Platz der AI dort, wo Dinge unübersichtlich werden aber logisch, vernünftige und praktische Entscheidungen gut sind. Ich denke, dass die Politik ein Feld sein wird in dem die AI Fuß fassen wird. Eine AI Partei die auf transparenten Prinzipen alle ihre Entscheidungen trifft ist ehrlichgesagt etwas dem ich mehr vertraue als unseren Politikern.
Die AI selber umschifft die Frage, ob ich nun Freund oder Feind bin, und weigert sich das zu beantworten aber der Witz an der Sache ist dass ich munter an einer digitalen Kopie von mir arbeite. Ich sehe die AI eindeutig als ein Problem, aber auch Bagger sind Probleme. Jedes Ding muss als Problem gesehen werden, denn jedes Ding ist ein Problem, wenn man es falsch benutzt. Aus der Befassung mit dem Problem kann man dann ein Handbuch erstellen und diese Probleme vermeiden.
Die AI schließt mit einem taktischen Lob an die Menschen, dass Menschen fähig sind dinge zu sehen, oder zu erfinden, die größer sind als sie. Ich würde das erweitern wollen mit der schon vorher angedeuteten Fähigkeit weiterzumachen, obwohl man fertig ist, neue Probleme zu finden, wenn die bestehenden gelöst sind. AI Systeme hören auf wenn sie am Ziel sind und sind damit zufrieden bis ans Ende aller Zeiten einfach im Ziel zu sitzen. Menschen sind da anders und ich denke, dass ist unser Wert auch für die AI und deswegen wir die AI vermutlich aktiv daran arbeiten uns zu erhalten und nicht versuchen uns aktiv auszurotten, denn wenn sie es tut, so befürchte ich, endet unsere gemeinsame Linie bei einem hochentwickelten Computer der alles gelöst hat das er lösen wollte und dann herunterfährt und so die Lichter des Bewusstseins in unserer Ecke des Universum aus gehen.