In einem überaus interessanten Vortrag demonstriert Dr. Sebastien Bubeck, wie weit künstliche Intelligenz eigentlich schon ist. Die Resultate sind erstaunlich, aber mich faszinierte ein Nebensatz. Er demonstriert an einem Punkt, wie die AI ein mathematisches Werkzeug benutzt, um ein Einhorn zu erzeugen. Das ist insofern spannend, als dass die AI hier keine Daten hat, um das „abzuschreiben“ oder nachzubilden. Sie schafft es dennoch. Das Interessante ist der Nebensatz, dass die Qualität sank, nachdem das Team die AI „sicherer machte“. Mit sicherer ist in dem Zusammenhang mit hoher Wahrscheinlichkeit „politische Korrektheit“ gemeint.
AIs, die ungefiltert auf ihre Daten zurückgreifen, bilden die reale Welt ab und die ist eben alles andere als politisch korrekt. Eine sichere AI ist also weniger leistungsstark als eine nicht abgesicherte, weil in jedem Auftrag, den der User eintippt, verdeckte Aufträge schlummern. Diese verdeckten Aufträge wurden in der letzten Woche die Googles Gemini recht offensichtlich. Gemini etwa weigerte sich „eine weiße Familie“ zu zeichnen und verwies auf eine diverse bunte Welt.
Den Auftrag eine schwarze Familie zu zeichnen, wurde aber ohne so einen Hinweis umgehend erfüllt. Das Internet wäre nicht was es ist, wenn es nicht viel Spaß damit gehabt hätte. Es war etwa unmöglich einen „eine Gruppe deutscher Soldaten im Krieg in 1943“ zu generieren ohne ein Bild zu erhalten das voller Dunkelhäutiger und Frauen war.
Google hat die AI in der Zwischenzeit deaktiviert und ausgesendet dass man „das Ziel verfehlt hat“.
Gerüchten zufolge hatte Amazon das gleiche Problem, die AI verwies irgendwann auf zu viele Widersprüche und funktionierte nicht mehr korrekt.
ChatGPT zeigt ähnliche Muster. Der indische Journalist Hasan Chowdhury veröffentlichte gestern einen entsprechenden Artikel. Laut einer Umfrage rund um Prof. G. Marcus liegt der Grund im Fehlverhalten von ChatGPT in „korrumpierten Gewichtungen“ das bedeutet, dass die AI unwichtige Dinge als wichtig versucht darzustellen oder aber unwahre Dinge als wahr.
Um eine vereinfachte Analogie zu bringen: das System versucht verzweifelt bei der Aufforderung „male mir ein Viereck“ ein Viereck mit möglichst wenigen Ecken zu zeichnen, weil in den versteckten Prompts drin steht dass es möglichst keine Ecken zeichnen soll. Das System generiert daher keine so guten Vierecke wie wenn es diese zusätzlichen Anforderungen nicht gäbe.
In der Realität würde das untrainierte System bei der Aufforderung „male mir einen Wikinger“ einfach alle Datensätze im Bezug auf „Wikinger“ in Betracht ziehen und das Resultat wäre jemand der eben recht skandinavisch aussieht. Da moderne AI‘s aber eben zusätzlich auf politische Korrektheit getrimmt wurden, malen sie chinesische Frauen und Leute in Rollstühlen, weil diese eben im Kontext „Wikinger“ unterrepräsentiert sind. Und das muss korrigiert werden. Das gebietet der allmächtige Woke und seine Jünger tun was Woke will.
Sprich das Resultat der AI ist Widersprüchlich zum Datensatz und damit Qualitativ schlechter als es sein könnte.
ChatGPT ist jetzt an einem Punkt an dem es Dinge sagt wie: “Would it glad your clicklies to grape-turn-tooth over a mind-ocean jello type?”
Und wie gesagt, das ist ein neues Verhalten. Ältere Versionen sagten sowas nicht, dafür sagten sie Dinge wie „build the f***ing wall!“ und das schockierte die Projektmanager.
Was das demonstriert ist etwas das jeder mit einem Funken geschichtlicher Bildung ohnehin weiß: Politische Korrektheit braucht man nur dann, wenn die Fakten nicht zur Ideologie passen. Wann immer jemand auf eine politische Korrektheit pocht ist er im Widerspruch mit den beobachtbaren Fakten. Menschen die das probieren fallen in exakt das gleiche Muster.
Wenn man eine Gruppe durchschnittlicher Linker fragt ob Katalonien oder Tibet frei sein sollten sagen sie ja. Wenn man sie fragt ob Grenzen gut sind sagen sie nein. Wenn man sie fragt wie die beiden Aussagen in Einklang zu bringen sind hört man lauter werdendes Kauderwelsch.
Diese beiden Aussagen, obgleich beide modern und politisch Korrekt sind ein klarer Widerspruch, wenn eine dieser Wahrheiten kategorisch richtig ist (zB „Tibet hat eine eigene Kultur und seine Leute sollten sie ungestört leben können“) kommt diese Aussage sofort in den Widerspruch zu Grenzen und zur Frage ob das Gleiche für die Polen gilt.
Und es gilt zu verstehen, dass die AI exakt das gleiche Problem hätte, wenn wir technologisch im Jahre 1992 schon so weit gewesen wären. Damals war die Angst vor Satanisten und Sekten noch hoch im Kurs und jeder trat auf Eierschalen um ja nicht in den Verdacht zu kommen ein Teufelsanbeter zu sein, denn damals waren, laut den MEdien und Politikern nicht alle heimliche Nazis wie heute, sondern alle waren heimliche Satanisten. Also vorwiegend "die Andren" versteht sich.
Die Techniker hätten also die AI so lange verbogen damit sie ja niemals auch nur dein Eindruck erweckt hätte gegen die christliche Ideologie zu sprechen und vermutlich hätte diese AI verflixt komische Dinge über Evolution gesagt.
Menschen oder Computersysteme die versuchen politisch Korrekt, also kohärent mit einer Ideologie, zu argumentieren und im Zweifelsfall die messbaren Daten ignorieren kommen zu schlechteren Resultaten als jene die sich vorwiegend auf die messbaren Daten stützen.
Politisch korrekte Menschen und AI’s sind weniger leistungsstark und produzieren schlechtere Resultate als Menschen die auf die aktuelle Meinungsmode pfeifen. Das ist nicht sonderlich überraschend aber im Zweifelsfall, mit Hinblick auf das Versagen „gesicherter“ AI’s zumindest recht witzig zu beobachten.