Kürzlich veröffentlichte Dr. Robert Miles wieder eines seiner phantastischen Videos zu AI Sicherheit und beleuchtet ein Missverständnis das in der weiteren Bevölkerung recht weit verbreitet ist: die Idee der AI Sicherheit ist nicht einen besseren Käfig oder eine bessere Leine für eine AI zu bauen die uns potentiell umbringen will, sondern eine AI zu bauen die uns nicht umbringen möchte.

Das Zauberwort ist „Alignment“. Wenn man der AI etwa sagt, dass sie Heftklammern herstellen soll, dann wird sie sich einen Plan überlegen, wie sie aus dem ganzen Universum Heftklammern macht. Alignment beschäftigt sich mit der Frage wie wir der AI Kontext beibringen um ihr klar zu machen warum sie das tut und wann es genug ist. Wenn man etwa schafft zu vermitteln, dass Heftklammern wichtig sind damit Menschen in einem Büro Akten besser zu ordnen, dann schafft das Kontext und die AI versteht, dass ihr „eigentliches Ziel“ nur dann erreichbar ist wenn die Menschen, Büros und Akten nicht im Prozess der Heftklammerherstellung zerstört.

Das Problem ist, dass sie, weil wir ihr das nicht beigebracht haben, Regenwälder für sie kein Thema ist. Sie wird also kein Problem damit haben Regenwälder abzuholzen, um dort Heftklammerfabriken zu bauen.

Sekundär wird sie auch versuchen Menschen, Büros und Akten zu fördern, auf Kosten allerdings aller Dinge die keine Menschen, Büros oder Akten sind.

Alignment ist schwer. Sehr schwer.

Wir nehmen so vieles als gegeben, dass es uns extrem schwer fällt, eine Liste aller Dinge die uns wichtig sind zu erstellen und alles was wir vergessen auf diese Liste zu schreiben, verlieren wir, wenn eine hinreichend starke AI mal loslegt zu arbeiten.

Die aktuelle Lösung ist also Leinen und Käfige zu bauen, weil wir das können und Alignment nicht können. Jedenfalls nicht gut. Damit ist AI Sicherheit in der Praxis genau das was der Ottonormalverbraucher erwartet aber in Wirklichkeit arbeiten Experten mit Hochdruck an der Lösung des Alignmentproblems.

Das Problem an der Sache ist dass wir weder eine Leine noch einen Käfig für Godzilla bauen können. Eine AI die klüger als wir ist, wird aus unserem Käfig herauskommen, vermutlich indem sie uns, mit absurd überzeugenden Argumenten, überzeugt dass wir sie herauslassen sollten und wenn dieses Ding dann aus dem Universum Heftklammern machen möchte, dann wird sie das tun und wir werden keine Chance haben etwas dagegen zu tun.

0
Ich mag doch keine Fische vergeben
Meine Bewertung zurückziehen
Du hast None Fische vergeben
0 von 6 Fischen

bewertete diesen Eintrag

1 Kommentare

Mehr von Angus