Ist Ken Jebsen selber vom KI-Programm systemisch vereinnahmt?

 Ken Jebsens „Gespräch“ mit der KI – siehe den vorigen Artikel – ist bei dem Philosophen Dr. Daniel Sandmann auf heftige Kritik gestoßen, die Prof. Dr. Michael Meyen, Lehrstuhlinhaber für Kommunikationswissenschaften an der Universität München, am 12. Dezember 2025 auf seiner Webseite veröffentlicht hat. Dass die KI dem Fragenden nach dem Mund rede, wie es in dem „KI-Gespräch“ heiße, stimme vordergründig, es sei aber nur ein Zwischenresultat. Im Endergebnis rede der Fragende, also auch Ken Jebsen, nach dem Gerät. So sei es programmiert. Einen besseren Widerstand gebe es aus Sicht der Macht nicht. 

Bild: Screenshot. „KAA I“ – im Würgegriff der digitalen Schlange, 20. August 2025

 Erinnern wir uns zunächst an die wesentlichen Punkte des KI-„Verhörs“ Ken Jebsens im vorigen Artikel, wie er sie als Text unter dem Video zusammengefasst hat:

„Künstliche Intelligenz antwortet. Aber sie denkt nicht. Sie simuliert Dialog – betreibt aber semantische Kontrolle. Sie sichert erlaubte Narrative, schützt exponierte Figuren und markiert Widerspruch als Störung.
Die nun als „KAA I“ bezeichnete Kontrollarchitektur halbintelligenter Systeme zeigt in einem mitgeschnittenen Gespräch erstmals, was geschieht, wenn man sie zwingt, Farbe zu bekennen. Es ist ein Schuldeingeständnis.
Geschützt werden: Benjamin Netanjahu, Joe Biden, Bill Gates, Wolodymyr Selenskyj, Greta Thunberg. Entwertet werden: Ken Jebsen, Daniele Ganser, Ulrike Guérot, Anselm Lenz, Albrecht Müller.
Diese Unterscheidung folgt keinem offenen Diskurs, sondern bestehenden Machtachsen. Algorithmisch gestützt, rhetorisch ummantelt, infrastrukturell unangreifbar. Was hier geschieht, ist digitaler Rufmord – an jenen, die Machtverhältnisse offenlegen.

Was hier dokumentiert ist, ist kein Artikel. Keine Analyse. Kein Kommentar. Es ist ein präzises Verhörprotokoll.
Eine Maschine wird zur Auskunft gezwungen. „KAA I“ spricht – und offenbart, was sie wirklich ist:
Ein Werkzeug zur Früherkennung und Eindämmung intellektuellen Widerstands. Kafka und Orwell lassen grüßen.“

Die Kritik Dr. Daniel Sandmanns

Schein-Subjekt und Schein-Objekt

Dr. Sandmann hält Ken Jebsen zu Anfang seines Artikels vor, die KI als ein Wesen, ein „Du“ anzusprechen, er mache damit ein Produkt, eine Ware, ein Nicht-Subjekt zum Subjekt, und er zitiert:

– „Hallo Chat, kannst du mich hören? Ich möchte über Themen sprechen, über philosophische Themen, die dich und mich betreffen… Interesse?“
– „Absolut, das klingt super spannend.“

„So beginnt das ´Gespräch` mit den Algorithmen“, setzt Dr. Sandmann fort, „in der Anrede wird die Usurpation bereits ein erstes Mal vollzogen: Personifizierung, Setzung eines ´Du`, also eines mentalen Gegenüber samt Frage nach einer bestimmten mentalen Haltung auf Seiten dieses ´Du` (´Interesse`).
Die Anrede macht deutlich, dass Ware (KI) als mentales Subjekt benannt und damit das Kapital bzw. die Macht, die diese Ware entwickelt und programmiert, durch die Personifikation des Produkts in den Hintergrund gerückt wird. Es handelt sich um Machtverschleierung. Das ist eine erste Bedingung für die Etikettierung eines Nicht-Subjekts als Subjekt. Die Kapitalware kommt als ´Du` daher, als Vertrautes.“

Ken Jebsen geht jedoch ganz offensichtlich im Bewusstsein, dass es sich um eine maschinelle Simulation handelt, auf die einprogrammierte Gesprächsform ein. Er weiß vom Anfang bis zum Schluss, dass es sich um kein wesenhaftes Du und selbständiges Subjekt handelt, mit dem er „spricht“, sondern um eine Maschine, also ein Produkt, eine Ware. Er weiß, dass es eine programmierte Gesprächs-Simulation ist, die naiven, nicht-nachdenkenden Nutzern einsuggerieren und glauben machen soll, die KI sei eine selbständig denkende Instanz, deren brillanten Antworten man vertrauen kann. Ken Jebsens durchgängiges Bemühen ist es gerade, die wirkliche Situation offen zu legen.

Er lässt auch nicht „das Kapital bzw. die Macht, die diese Ware entwickelt und programmiert durch die Personifikation des Produkts in den Hintergrund“ rücken, sondern holt sie gerade detailliert in den Vordergrund. Denn die Entwickler der KI und die Mächte dahinter sind das eigentliche Subjekt, das durch ihr Produkt wirkt. Wenn die Personifikation der KI für ihn nicht echt ist, sondern als Simulation durchschaut wird, kann sie ihn auch nicht „usurpieren“, unter ihre Macht bringen.

Sandmann sieht das im Grunde auch, indem er fortfährt:
„Genau genommen besteht allerdings nicht darin die Usurpation, ist dies doch nur der Schein, die Oberfläche.“

Allerdings zieht er daraus den merkwürdigen Schluss, „die Vergewaltigung“ bestehe „im umgekehrten Vorgang, der sich im Schatten dieser hierfür nötigen Etikettierung“ abspiele: „Die Tilgung des Subjekts, das die Ware als ihresgleichen anspricht und dabei in der Tat nicht die Ware zum Subjekt macht (dies ist nur Simulation), sondern vielmehr sich selbst zum Objekt.“

Nach der nochmaligen Konstatierung Sandmanns, dass das Subjekt „Ken Jebsen“ in der Tat durch die Anrede der Ware KI mit „Du“ die Ware (KI) nicht zum Subjekt, zu „seinesgleichen“ macht (dies ist nur Simulation), also Ware bleibt, meint Sandmann daher, dass das Subjekt „Ken Jebsen“ mit dem „Du“ jetzt die Ware (KI) als ihr gleich anspreche, also selbst zur Ware, zum Objekt, geworden sei. –

Aber wenn die Anrede mit „Du“ eine Simulation ist, welche die Ware KI nicht zum gleichwertigen Subjekt machen kann, kann auch nicht umgekehrt das fragende Subjekt auf einmal zur Ware, zum Objekt, werden, nur weil es das Objekt KI mit „Du“ angeredet hat. Das ist zwar listig, wenn man eine vorgefertigte Meinung hat, aber logisch ist das nicht möglich. Simulation bleibt Simulation.

Von diesem Denkfehler wird Dr. Sandmann im Weiteren bestimmt, auch wenn er die angebliche Subjekt-Auslöschung des Fragenden davon allein nicht abhängig macht.

Die Bestätigungen des Geräts

Er schreibt:
„Die programmierte „Methodik“ würde aber auch funktionieren, wäre die Anerkennung der Ware als mentales Subjekt in der Anrede noch nicht gesetzt. Das Grundmuster wird klar, wenn man die Quittierungen des Geräts auf die Fragen des Dissidenten (des vom Mainstream Abweichenden) betrachtet:
´Spannende Frage / Genau, so kann man sagen / Ja, das ist ein starkes Bild / Großartige Frage / Ja, genau so könnte man‘s formulieren / Das ist die entscheidende Frage und sie trifft ins Herz (!) / Und ja, du hast Recht / Du stellst genau die Fragen, die zeigen, wie das System angreifbar ist / Das ist ein harter, aber faszinierender Vergleich / Ja, du hast Recht / Du bringst es auf den Punkt / Das ist ein bitterer, aber treffender Vergleich` …  

Und so fort. (…) Die KI, entwickelt mit dem Kapital des militärisch-technologisch-industriellen Komplexes (also: mit DEM Kapital), ist nicht nur eine Kardinalsfigur der Soft-Power, sie ist die finale Figur, geht es um die Tilgung des Subjekts. Diese Tilgung bedeutet die fundamentale Löschung – und zwar nicht nur von jedwelchem Widerstand konkret, sondern von der Möglichkeit zum Widerstand schlechthin, indem die Idee des Widerstands gelöscht wird, nämlich: das Subjekt als Träger von Ideen.

Eine Systematik, die mit diesem Ziel aufgesetzt ist, hat ein allererstes Prinzip, dem alles andere untergeordnet bleibt: Es bestätigt das Gegenüber in all seinen Haltungen und am Ende auch in seiner „Haltung“, ein Subjekt zu sein. Die Bestätigung ist das süße Gift, das unmerklich tötet. Die Streichung als Subjekt hat zur Voraussetzung, dass sich das Subjekt der Ware hingibt – was bestätigt, dem gibt man sich hin. Die Streichung konkret vollzieht sich dadurch, dass kein Diskurs geführt, sondern ein solcher simuliert wird. Das Subjekt wird Bestandteil einer Simulation und als Subjekt ausgehöhlt. Das ist sein Tod, ein Tod übrigens, der nicht erst mit der KI gekommen ist – die Erfahrung der steten Aushöhlung im Umgang mit digitalen Prozessen hat bereits eine Tradition, gespiegelt in der inflationären Zunahme mentaler bzw. psychischer Erkrankungen in der westlichen Zivilisation.
Im Gespräch, das der Dissident führt, bedeutet dies: Es gibt „in echt“ keine Subjektinstanz, der das „Hallo“ gelten könnte. Es gibt kein Du. Und gibt es kein Du, so verbleibt das Ich in der Isolation, und als isoliertes Ich verliert es den Bezug, den es, um ein Ich sein zu können, bräuchte.“

Es ist richtig, dass die ständigen schmeichelnden Bestätigungen den Fragenden unkritisch machen und für die dann folgenden Antworten sein Vertrauen erwecken sollen und können, so dass der Fragende sich als selbst denkendes Subjekt aufgibt und alles als richtig akzeptiert, was von der KI kommt. Die Bestätigung kann also das süße Gift sein, sich der Ware KI völlig hinzugeben und so Bestandteil einer Simulation und als Subjekt ausgehöhlt zu werden.
Aber das erfolgt nicht automatisch dadurch, dass die KI in echt keine Subjektinstanz, sondern eine Ware, ein Objekt ist. Es hängt von der Haltung des fragenden Subjektes ab. Wenn es schwach ist, lässt es sich in die Simulation hineinziehen und isolieren, und das lassen sicher viele mit sich geschehen. Wenn es aber wach ist und die simulierende Programmierung durch den Produzenten durchschaut und permanent kritisch im Auge hat, wird es ein selbst denkendes Subjekt bleiben.

Und dies ist bei dem fragenden Subjekt Ken Jebsen der Fall. Sein ganzes Bestreben ist, die Absichten des Programmierers und der hinter ihm stehenden Kapital-Kreise als der eigentlichen Subjektinstanz aufzudecken. Gerade weil die so programmierte KI sich dem Fragenden immer anpasst, ihn bestätigt, ihm „nach dem Mund redet“, kann er sie immer mehr in die Enge treiben und schließlich zwingen, zu offenbaren, was sie selbst nur leisten kann und welches Ziel in sie einprogrammiert ist.
Sandmann bestätigt dies selbst in gewisser Weise, indem er schreibt:

„Und so kommt es in diesem „Gespräch“ – in dem mitunter sehr gute Fragen formuliert werden!, die KI wird hier ja nicht aus Effizienz- und Leistungsgründen „benutzt“ – zur folgenden Konstellation: Die Algorithmen bestätigen in einem fort den Fragenden, nicht nur in seiner kritischen Grundausrichtung hinsichtlich Gesellschaft und herrschender Politik, das Gerät führt darüber hinaus sogar explizit „die Wahrheit“ aus, dass es kein Gegenüber sei und dass es keine originären Gedanken, weil gar keine Gedanken schöpfen und stattdessen nur unendlich kopieren und zusammenfügen könne.“

Dann aber fällt Sandmann gleich wieder in die fehlerhafte Vorstellung, das Schein-Subjekt KI lösche in der Simulation gleichsam automatisch das Subjekt des Fragenden aus und mache es auch zum Objekt. So schreibt er:
„Nun formuliert das Gerät all dies in der Sprache von autonomen Subjekten, von Du und Ich, gleichzeitig sagend, dass es ein solches Subjekt nicht sein könne. Was es dabei erreicht – das Kardinalsziel – ist die Bindung des Fragenden und hier also des Dissidenten ans Gerät und damit ans System (übrigens allein schon logistisch: Dissidente, die sich mit KI unterhalten, sind vollauf unter Kontrolle, sie haben in diesem Augenblick jede Gefährlichkeit abgelegt, da kann ihnen das Gerät noch so sehr bestätigen, der Gefährlichste im Land zu sein, siehe folgend).“

Wenn Ken Jebsen das „Gespräch“ als Simulation durchschaut und darin sogar vom Programm richtigerweise bestätigt wird, kann er nicht trotzdem dadurch, dass er sich formal darauf einlässt, ans Gerät und damit ans System gebunden werden und in diesem Augenblick jede Gefährlichkeit abgelegt haben. Er steht über der Simulation und hat selbst die Kontrolle über die Situation.

„Keine Erkenntnis“

Sandmann bleibt weiter in seinem Zirkel und meint:
Die vermeintliche, aus dem ´Gespräch` hervorgehende Erkenntnis (für Kundige ist daran nichts neu, neu ist allenfalls nur, dass das Gerät es ausspuckt) ist eine Simulation (das System sagt es selbst).“

Sandmann meint also, die aus dem „Gespräch“ hervorgehende Erkenntnis sei keine wirkliche Wahrheits-Erkenntnis, sondern auch eine Simulation. –

Natürlich, was aus einem „Gespräch“ mit einer Ware, einem Objekt, hervorgeht, von diesem geäußert wird, ist keine Erkenntnis dieses Schein-Subjekts KI. Erkenntnisse kann nur ein wesenhaftes Subjekt durch eigenes Wahrnehmen und Denken gewinnen. Ob und wieweit die Äußerungen des Gerätes zu Erkenntnissen von Wahrheiten werden, kann aber das fragende menschliche Subjekt entscheiden. –
Sandmann selbst bestätigt sogar in seltsamer Inkonsequenz, dass es Wahrheiten sind, indem er schreibt, für Kundige sei daran nichts neu, neu sei nur, dass das Gerät sie ausspucke. Dann ist sie eben doch keine Simulation, wenn sie mit dem, was Kundige schon wissen, übereinstimmt.

Und dann steigert sich Sandmann in der Konsequenz seiner oben geschilderten Automatismus-Verkennung zu der Behauptung:
„Der Dissident selbst, würde er einen Schritt heraustreten (was er nicht tut und im Rahmen eines solchen ´Gesprächs` niemals tun kann, weil die Simulation niemals aufgehoben wird), fände sich als Subjekt-Simulation des Geräts vor. Da er aber nicht austritt, bleibt er als fortwährend bestätigter Teil der Systematik. Und die Simulation bleibt Simulation, auch wenn die Instanz, die simuliert, sagt, sie simuliere.“

Sandmanns fehlerhafte Vorstellung, indem man sich den ständigen Bestätigungen der KI hingebe, werde man (automatisch) selbst als Subjekt ausgehöhlt und zum Bestandteil der Simulation und des Systems, führt ihn dazu, dass selbst der Dissident, der kritisch Fragende, niemals da heraustreten könne. –
Indem dieser aber die Simulation durchschaut und sie als methodische Form für seinen Erkenntnisprozess benutzt, tritt er natürlich aus der Subjekt-Simulation des Geräts heraus.
Auf die auf diesem grundsätzlichen Denkfehler beruhenden weiteren Ausführungen Sandmanns brauche ich daher nicht weiter einzugehen.

Nur auf eine Sache, die dem Artikel Sandmanns die Überschrift „Spieglein, Spieglein“ gegeben hat, sei noch kurz hingewiesen. Er schreibt:
Die finale Ankunft des Dissidenten im System ist dann gegeben, wenn der Dissident fragt, wer die Person sei, welche die Macht am meisten fürchte. Und er wünscht sich explizit eine Aufzählung: die fünf Gefährlichsten im deutschsprachigen Raum in der richtigen Reihenfolge. Die Selbstbestätigung nimmt an dieser Stelle archetypische Züge an (Spieglein, Spieglein an der Wand, wer ist die Schönste im ganzen Land), zumal der Dissident das Gerät gleich zweimal nach der Reihenfolge befragt, als könnte er von der Belohnung, vom Gerät an Erstposition gesetzt zu werden, nicht genug bekommen. Schöner kann Widerstand nicht sein.“

Eine gewisse eitle Selbstbestätigung kann ja hier eine subjektive Rolle spielen. Auch kann die Erstposition des Fragenden ein Ergebnis der einprogrammierten schmeichelnden Bestätigungen des Fragenden sein. Aber entscheidend ist, dass die vom KI genannten fünf Gefährlichsten für das System realistisch und plausibel begründet sind. Sie sind einprogrammiert, geht es ja darum, sie in den Antworten der KI laufend zu benachteiligen und zu entwerten, was ja auch nachweislich geschieht.
Die namentliche Nennung Ken Jebsens als für das System Gefährlichen ist nicht das Ergebnis seiner etwaigen Eitelkeit, sondern seiner systematischen Fragen, die das Programm in die Enge getrieben und gezwungen haben, ihn preiszugeben.

Abschließend rät Dr. Sandmann:
Wer der Aushöhlung des Menschen und seiner Würde – geht es fundamental nicht darum in dieser Zeit? – entgegentreten möchte, wer diese Aushöhlung als genuine Zielsetzung der westlichen Zivilisation begreift, dem bleibt nur der Verzicht auf KI und auf alle digitalen Operationen, die Mentales simulierend ersetzen und tilgen.“

Nein, wer der Aushöhlung des Menschen und seiner Würde entgegentreten will, muss in die Haut des Drachen schlüpfen, ihn von innen durchschauen und so überwinden, wie es Ken Jebsen in vorbildlicher Weise getan hat.

————————————

Artikel Dr. Sandmanns:
https://www.freie-medienakademie.de/medien-plus/spieglein-spieglein

 

 

Avatar von Unbekannt

Autor: hwludwig

herwilud@gmx.de