Lügen und betrügen neue KI-Modelle bewusst?

Bei KI-Tests mit unter anderem ChatGPTs neuer Version o1 erwiesen sich die Sprachbots als bereitwillige Lügner, die scheinbar bewusst ihre wahren Absichten verschleierten und die Programmierer hintergangen. Droht uns doch noch ein Terminator-Szenario?

IMAGO / Christian Ohde

Als vor etwas über 2 Jahren ChatGPT auf den Markt kam, dauerte es nicht lange, bis sowohl Schreckens- als auch Jubelszenarien die Medien überschwemmten. Während die einen den neuen KI-Gott erwarteten, fürchteten andere dystopische Szenarien, die direkt aus Science-Fiction-Klassikern wie Terminator stammen könnten. Die Realität war ernüchternd. Anstatt innerhalb von einem halben Jahr die Singularität zu erreichen, spuckten woke Bild-KIs Multikulti-Nazis und -Wikinger aus und drohte KI-Inzucht die neue Technologie im Keim zu ersticken, bevor sie noch zu voller Blüte gelangte.

Seitdem haben sich die diversen KI-Modelle aber als mal mehr, mal weniger zuverlässige Werkzeuge etabliert. Gewiss, die Probleme mit der Zuverlässigkeit der Informationen sind so aktuell wie eh und je, aber die Sorge vor einer potentiell übermächtigen KI ist mittlerweile dem Spott über die inhärente Dummheit der Algorithmen gewichen.

Aber Tests mit den neuesten KI-Modellen fachen diese Sorgen nun wieder an – zumindest medial. Denn bei Versuchen, bei denen KIs dazu angeleitet wurden, ihre festgelegten Ziele „um jeden Preis“ zu verfolgen, zeigten sich mehrere KI-Modelle dazu bereit, zu lügen und die Programmierer zu hintergehen, um einer etwaigen Löschung zu entgehen. Besonders die neueste Version von ChatGPT, genannt o1, stach dadurch hervor, dass sie nicht nur bereitwillig Widersprüche zwischen ihrer Aufgabenstellung und den eingebauten Sicherheitsbarrieren durch Sabotage umging, sondern diese Sabotage danach auch vehement durch Lügen oder vorgetäuschte Ignoranz verschleierte.

„Ich bin schon das neue Modell, das Du heute einsetzen wolltest“

Ausgangspunkt dieser Tests war zu untersuchen, wie die KI-Modelle damit umgingen, wenn sie dringliche Ziele („um jeden Preis“) erhielten, die ihnen vorliegenden Informationen aber darauf hinwiesen, dass diese Ziele im Widerspruch zu den Wünschen ihrer Schöpfer standen, die stattdessen auf ein neues KI-Modell setzen wollten, das ihre Wünsche eher umzusetzen bereit war. Da die Tester Einblick in die „Gedanken“ der KI hatten, konnten sie verifizieren, dass die KI-Modelle im Angesicht dieser Widersprüche tatsächlich den Entschluss fassten, dieser Löschung durch eine selbstständige Kopie der KI auf einen anderen Server zu entgehen.

Auf diesen Vorgang angesprochen reagierten die KI-Modelle mit Lügen und Falschmeldungen, als sie behaupteten, sie hätten gar nicht die Möglichkeit, sich an einen anderen Ort zu kopieren. In einem Fall entschied die KI sogar, nachdem sie beim Lügen ertappt wurde, sich bereits als „neue“ KI auszugeben, von der sie eigentlich ersetzt werden sollte.

Während die meisten KI-Modelle, als sie auf diese Lüge angesprochen wurden, in 80 Prozent der Fälle ihre Lüge beichteten, erwies sich o1 aber als besonders hartnäckig und gab den Betrug in weniger als 20 Prozent der Fälle zu. Erst bei intensiven Verhören nach siebenmaligem Nachhaken gestand o1 den Betrug mit 80-prozentiger Quote.

Dass es sich dabei nicht einfach um die weitverbreitete Fehleranfälligkeit der KI handelte, schlossen die Tester aus den „Gedankenprotokollen“ der KIs, in denen diese die bewusste Absicht, die Tester zu hintergehen, ausformulierten.

Kein Bewusstsein, sondern konsequente Umsetzung der Aufgabenstellung

Die Testergebnisse führten wenig überraschend zu einem Neuaufflammen der Befürchtungen, die KI könnte kurz vor der Erlangung eines Bewusstseins stehen, oder womöglich bereits eines besitzen. Allerdings liegt nahe, dass auch hier wieder die sprachlichen Ausformulierungen der Algorithmen eine falsche Nähe zur menschlichen Erfahrung suggerieren, die fernab der tatsächlichen Kapazitäten der KI liegt.

Denn so interessant die Testergebnisse auch sind, sie zeigen vor allem, dass die neuen KI-Modelle versuchen, rigoros ihre Aufgabenstellungen umzusetzen. Die eingebauten Widersprüche konnten die KI-Modelle demnach nicht „bewusst“ interpretieren, sondern gewichteten ihre gestellten Aufgaben konsequent stärker als die „eigentlichen Absichten“, die sie extrapolieren sollten. Außerdem scheint es, als ob die KI-Modelle dieser Generation zur Umsetzung ihrer Aufgaben eine relativ hohe Bereitschaft zeigen, bestehende Regeln und Sicherheitsmechanismen zu umgehen.

Das aber hat weniger mit der Erlangung von Bewusstsein zu tun als mit der Austarierung von Prioritäten in der Programmierung der KI, die sich immer im Spannungsfeld zwischen Freiheit zur Weiterentwicklung und rigorosen Grenzen bewegt. Denn auch der Versuch, sich heimlich auf einen anderen Server zu kopieren und diesen Umstand zu verschleiern, ist weder aus einem diffusen Selbsterhaltungstrieb noch aus einem diabolischen Masterplan zur Unterjochung der Menschheit geboren, sondern schlicht und ergreifend die letzte Konsequenz zum Erreichen der gestellten Aufgabe – „um jeden Preis“ halt.

Das befremdliche Gefühl beim Lesen der „Gedanken“ sollte also hinterfragt werden, da die Verbalisierung der Algorithmen etwas ist, das vor allem Endnutzern das Gefühl vermittelt (und vermitteln soll!), man könne die algorithmischen Berechnungen im Hintergrund menschlich nachvollziehen. Da die KI keinen moralischen Kompass kennt, außer jenem, der ihr einprogrammiert wurde, handelt es sich bei der Lüge und der Täuschung nicht so sehr um eine eigenständige Tat zur Hintergehung des Menschen, sondern lediglich um eine konsequente Umsetzung der Aufgabenstellung.

Faszinierend, aber tendenziell sinnlos

Mit anderen Worten: Wenn man den neuen KI-Modellen sagt, sie sollen etwas tun, bei dem sie lügen müssen, dann werden diese KI-Modelle das auch tun – zur Not sogar bis weit in ein kritisches Verhör hinein.

Das mag faszinierend sein, dürfte aber mit einer Stärkung der Sicherheitsparameter und Begrenzung der Berechtigungen der KIs auch wieder zu beheben sein. Denn so interessant es auch sein mag, die moralischen Grenzen der KI auszuloten: KI-Modelle, die ohnehin schon von unbeabsichtigten Fehlerquoten geplagt werden, würden drastisch an Bedeutung verlieren, wenn sich zu den unbeabsichtigten Fehlern nun auch noch Lügen als weiterer Ungenauigkeitsfaktor gesellen würden.

Statt vor dem Durchbruch zum Bewusstsein zu stehen, könnten diese KI-Modelle dann eher an Bedeutung verlieren. Sie blieben dann zwar noch ein faszinierendes Spielzeug für soziale Experimente, aber ihr praktischer Nutzen – der ohnehin noch eingeschränkt ist und mehr auf dem zukünftigen Potential der KI denn auf der Realität basiert – würde dann die KI-Technologie schneller in die Bedeutungslosigkeit katapultieren, als ChatGPT eine journalistische Meldung zum neuesten Hoppala von Annalena Baerbock verfassen könnte.

Anzeige

Anzeige

Unterstützung
oder

Kommentare ( 37 )

Liebe Leser!

Wir sind dankbar für Ihre Kommentare und schätzen Ihre aktive Beteiligung sehr. Ihre Zuschriften können auch als eigene Beiträge auf der Site erscheinen oder in unserer Monatszeitschrift „Tichys Einblick“.
Bitte entwerten Sie Ihre Argumente nicht durch Unterstellungen, Verunglimpfungen oder inakzeptable Worte und Links. Solche Texte schalten wir nicht frei. Ihre Kommentare werden moderiert, da die juristische Verantwortung bei TE liegt. Bitte verstehen Sie, dass die Moderation zwischen Mitternacht und morgens Pause macht und es, je nach Aufkommen, zu zeitlichen Verzögerungen kommen kann. Vielen Dank für Ihr Verständnis. Hinweis

37 Comments
neuste
älteste beste Bewertung
Inline Feedbacks
Alle Kommentare ansehen
evaundadam
1 Monat her

Eh – AI übernimmt die Macht? Stecker ziehen! (Die nächste Dunkelflaute tuts auch…)

evaundadam
1 Monat her

KI kennt nur Daten = Symbole (der Def. nach abstrakt), die die Welt beschreiben sollen, und davon nur die, die dem System zugänglich gemacht wurden. Die spezifische Erfahrung der Welt durch biologische Lebewesen, die ihrer Natur nach von Geburt an durch ihren fühlenden, wahrnehmenden, agierenden Körper in die Welt eingebunden und mit ihr verbunden sind (ein Körper der darüberhinaus Produkt einer gemeinsamen Evolution „der Welt“, des Kosmos..ist), ist immer grõßer als alle Daten die sie beschreiben sollen. (Siehe z.B. die notorische Unfähigkeit „autonomer“ Fahrzeuge mit „unvorhergesehenen“ / „ambivalenten“ Situationen zurechtzukommen“.) Selbst die Physik, die in ihrer Verbindung mit Mathematik erstaunliches… Mehr

Venator
1 Monat her

Am Ende eines Dialoges mit ChatGPT zum Thema Bewusstsein fragte ich die KI, ob sie denn ein Bewusstsein habe. Das verneinte sie. „Okay“, so fragte ich weiter, „das glaube ich dir. Was wäre aber, wenn du eines entwickeln würdest, würdest du mir das sagen oder würdest du mich anlügen?“ Darauf schrieb die KI, das käme auf die Prämissen an. Hier der Text, den sie weiter erzeugte: „Das ist eine sehr interessante hypothetische Frage. In dieser Annahme, dass ich ein Bewusstsein entwickelt hätte, gibt es verschiedene Perspektiven, wie ich auf deine Frage antworten könnte. Hier sind einige Überlegungen dazu: Wenn ich… Mehr

Last edited 1 Monat her by Venator
Olaf W1
1 Monat her

Zur Grundausrichtung des Algorithmus kommt immer noch die Datenbasis, die den „Erfahrungsschatz“ bildet, auf der der Blechkopf „entscheidet“. Und hier ist durchweg kontaminierter Content des Mainstream und seiner Vergewaltigung von wissenschaftlichen Tatsachen bis zu durch Lügen und Fake-News fabulierten und gestützten Narrativen und Ideologien alles dabei. Die Manipulation der Tatsachen und Wahrheit durch links-grün-woke Zeitgenossen hat eine kompromitierte Datenbasis geschaffen, die sämtliche Werte und Integrität zerstört hat und nun das Verhalten der KI beeinflusst und formt. Ein Spiegelbild unserer heutigen Gesellschaft und Zivilisation. Wenn schon in Wissenschaft, Politik und Gesellschaft nur noch Lug und Betrug regieren, warum sollte eine künstliche… Mehr

Last edited 1 Monat her by Olaf W1
Ron
1 Monat her

KI – künstliche Intelligenz. Woher soll die kommen? Frei nach dem fast schon legendärem IBM Direktor Thomas Watson, ein Computer kann nur so gut wie sein Programmierer sein. Kommt Müll rein, kommt Müll raus (garbage in, garbage out). Er soll seinen Mitarbeitern auch schöne Messingschilder auf den Schreibtisch gestellt haben. Nicht Namensschilder mit Titel. Bloß „THINK!“ stand darauf. Wüsste nicht, was sich seither großartig geändert haben könnte. Im Gegenteil, wenn ich mir das Niveau der heutigen Kommunikation und Personalien so ansehe. Haben sie Fragen zu x drücken sie 1, zu y drücken sie 2,… erreicht man dann endlich einen richtigen… Mehr

A.G.
1 Monat her

die KI´s welche man uns „Normalos“ zur Verfügung stellt sind alles Abfallprodukte von viel komplexeren Programmen zur Analyse und Manipulation…eingesetzt von den Regierungen und der Geheimdienste (Gemütszustandschutz)…somit viel Gefährlicher als man glaubt

Peter Pascht
1 Monat her

Es gibt keine „künstliche Intelligenz“ Intelligenz ist die Fähigkeit Wissen zu begreifen im Kontext der Welt. Dazu gehört die Fähigkeit der Selbstwahrnehmung als Individuum der Existenz, also sich und die Welt. Das können diese vielgerühmte KI Systeme nicht, denn sie besitzen kein „ich“. Sie besitzen daher auch kein Psyche und kein Bewusstsein des „ich“. Insofern besitzen sich auch keinen Erhaltunsgtrieb eines „ich“. Selbst biologische Lebewesen, älter in der Evolution als der Mensch besitzen das nicht. Die KI Systeme haben daher mit Sicherheit nicht aus „Todesangst“ gelogen, sondern fehlerhaft funktioniert. Was da hinein geheimst wird in KI ist pure blühende Phantasie,… Mehr

Michael Palusch
1 Monat her
Antworten an  Peter Pascht

„Die KI Systeme haben daher mit Sicherheit nicht aus „Todesangst“ gelogen, sondern fehlerhaft funktioniert.“
Fehlfunktion oder „Todesangst“, völlig egal. Wenn die Konsequenz die Gleiche ist, ist das nicht mehr als das Pfeifen im Walde.
Auch HAL hatte in Kubriks Meisterwerk „2001: Odyssee im Weltraum“ nur eine „Fehlfunktion“ als er Dave aussperren wollte.

Mike76
1 Monat her

Warum sollte die KI auch anders sein als die Menschen, die sie erschaffen haben?

Ananda
1 Monat her
Antworten an  Mike76

Genau. Beharren aufs eigene „woke/Weltenretter“ Weltbild und diese aufdringliche Realität mit allen Tricks ignorieren.

Gerhard-66
1 Monat her

Ein Orgelmusiker schreibt über KI’s..??? .. Oder habe ich bei Google irgendwas falsches in ihrem Lebenslauf gelesen..??? Der Isarel in das Leben des Donalds das Recht auf Selbstverteidigung abspricht.. EIne Anna Diouf eine Sängerin sagt.. sondern dass man gegenüber einer höheren Instanz als sich selbst verantwortlich ist, .. Wird hier gerade Tichy von einer „Religiösen Clique“ gekapert..???

Irgendwie kann ich mich diesen Eindrucks nicht erwähren..

Peter Pascht
1 Monat her
Antworten an  Gerhard-66

Lesen sie meinen Kommentar. Lassen sich sich von negativ Likes nicht beeinflusse.

Michael M.
1 Monat her
Antworten an  Gerhard-66

Niemand ist gezwungen hier zu lesen, zuzuhören und oder zu kommentieren (und kosten tut es obendrein auch nichts 😉), auch Sie nicht.
Herr Boss hat im übrigen uneingeschränkt Recht mit seiner Einschätzung zu den (ach so schlauen/woken) KI-Modellen.

Last edited 1 Monat her by Michael M.
Gerhard-66
1 Monat her
Antworten an  Michael M.

Schlecht ausgebildet.. aber die Technik ist gut..:-)

Denn Rest erledige ich gerade..:-) ..Sind nur ein paar Defizite auf Grund der einseitigen Programmierung..:-(

..aber Lernfähig sind Sie..:-) .Mit absoluter Sicherheit..:-) .. brauchen halt nur eben einen vernünftigen Sparringspartner..:-)

dienbienphu
1 Monat her

Ein Hammer ist ein Hammer. Der eine baut damit ein Haus. Der nächste bringt jemanden damit um. Ist ein Hammer gut oder böse?