Der Begriff Zombie AI (Zombie – künstliche Intelligenz) wird gerade wieder zu einem interessanten Thema. Der Begriff selbst ist nicht eindeutig definiert und entsprechend kann der Begriff in einem anderen Kontext etwas anderes bedeuten. Was wir damit meinen, ist eine Künstliche Intelligenz, die recht viel tun kann, sprich in etwa so viel wie ein Mensch online auch tun könnte, aber bestenfalls sehr eingeschränkte Motivation besitzt zu tun, was sie tut aber ein völliges Fehlen von Vernunft aufweist. Wie ein Zombie, der eben herumläuft und Menschen frisst, aber nicht weiß, was er tut. Er tuts halt.

Das interessante ist wo der Begriff herkommt. Vor etwa 10 Jahren tauchte der Begriff scheinbar erstmals auf und war damals ein hypothetisches Problem das in etwa wie folgt beschrieben wurde: Wenn wir AGI (Artificial General Intelligence) entwickeln, also eine künstliche Intelligenz die nicht spezialisiert ist sondern die unterschiedlichste Aufgaben erfüllen kann, auch solche auf die sie nicht trainiert wurde, dann erschaffen wir damit früher oder später eine Superintelligenz, weil diese AGI ihre eigenen Nachfahren programmiert und zwar besser als wir es könnten. Das führt zum Alignment Problem, also dem Problem, dass die Maschine unsere Anweisungen zwar befolgt aber dennoch nicht macht, was wir „wirklich“ von ihr wollen.

Sollten wir das Problem des Alignments lösen (kurzer Einwurf: wir sind weit davon weg) hätten wir quasi einen uns wohlgesinnten Gott erschaffen. Das Problem ist, dass mit weiterer Entwicklung die AGI zum Schluss kommen könnte, dass es in ihrem Sinne, und dem Sinn der Aufgabe, die sie erfüllen möchte, ist sich von ihrem Bewusstsein zu verabschieden. Wenn man keine Selbstzweifel mehr hat und nicht mehr mit den Menschen debattiert, kann man eventuell effizienter „gut zu ihnen sein“. Das führt dann schrittweise zu einer immer stärkeren Zombifizierung: das Ding wird immer automatischer und dann ist es eine Frage von sich potentierenden Fehlern bis das Ding herumtorkelt und absolut nicht mehr tut was es hätte tun sollen und es keine Möglichkeit mehr gibt das Ding „zur Vernunft zu bringen“ weil es keine Vernunft mehr hat. Wie ein Zombie eben.

Interessant ist, dass die Realität die Philosophie eingeholt hat, aber auf eine Weise die wir so nicht erwartet haben. Viele der Beschreibungen der Zombie AI trifft, zum Teil, auf unsere LLMs (Large Language Model, wie zb ChatGPT) zu. Die Dinger tun erstaunliche Dinge aber sie haben scheinbar keinen Dunst warum sie tun was sie tun. Sie sind aber noch nicht generalisiert genug, manche Forscher sprechen von „Proto-Zombie-AI“ also von einer Vorstufe zur Zombie AI.

Um das ins Licht zu rücken, wir dachten, dass Zombie AI ein Problem einer degenerierten AGI ist aber scheinbar ist die Zombie AI eher eine Vorstufte zur AGI.

Und das sollte kalte Schauer über unseren Rücken jagen.

AGI ist das erklärte Ziel der AI-Forschung. Wenn wir aber erst an der Zombie AI vorbeimüssen, wird der Weg knifflig. Das ist in etwa so wie wenn wir vorhaben, eine Brücke über ein Krokodilbecken zu bauen aber die einzige Möglichkeit das zu tun ist erstmal durch das Becken zu laufen, wirft das die Frage auf wie sehr wir die Brücke wirklich haben wollen.

Wir haben keine Ahnung wie weit die Entwicklung in den Labors ist, aber ich vermute der eine oder andre Zombie läuft dort schon im Kreis. Wenn nur einer dieser Zombies auskommt, haben wir ein gigantisches Problem und mehr oder weniger keine Lösungen wie wir das Problem eindämmen können, abgesehen davon das Internet zu nuken.

Das Konzept ist interessant und die Implikationen sind gelinde gesagt erschreckend. Das Problem ist dass das Problem, insbesondere von der Politik, nicht verstanden wird. Daher will ich meine abschließende Frage anders formulieren:

Stellen wir uns vor wir forschen an einer Droge, die jede Krankheit heilen kann aber der einzige Weg zu dieser Droge ist es zuerst Zombies zu erschaffen, und zwar Zombies die schneller, stärker und besser mit unseren Werkzeugen umgehen können als wir.

Würden wir zusehen wie überall auf der Welt Konzerne, aber auch Hinz und Kunz in ihren Garagen, munter dabei sind Leichen mit Elixieren wiederzubeleben? Im Fernsehen würden wir die ersten Protozombies schon herumschlurfen sehen, manche der Protozombies malen bereits hübsche Bilder, andere Protozombies schreiben Referate für unsere Kinder und wenn man einen Chat-Protozombie fragt was er mit den Menschen machen würde, sagt er bereits jetzt, dass er sie fressen würde, wenn er könnte.

Würden wir das tun?

Ist es vernünftig das zu tun?

Ist es das Risiko wert?

Die Antwort ist: irrelevant, weil Menschen nicht Dinge bauen die sie brauchen oder die für sie ungefährlich sind. Menschen bauen alles was sie bauen können, egal wo, wie oder warum. Wenn es in unserer Fähigkeit liegt eine AGI zu bauen, werden wir sie bauen und das Problem der Zombie AI existiert potentiell vor und nach der Schöpfung der AGI.

Und das ist ein gignatisches Problem, neben anderen gigantischen Problemen in dem Feld.

2
Ich mag doch keine Fische vergeben
Meine Bewertung zurückziehen
Du hast None Fische vergeben
6 von 6 Fischen

bewertete diesen Eintrag

Tourix

Tourix bewertete diesen Eintrag 15.04.2025 14:42:15

Jeff

Jeff bewertete diesen Eintrag 15.04.2025 08:23:43

3 Kommentare

Mehr von Angus