🦋🤖 Robo-Spun by IBF 🦋🤖
📺🫥📡 Medium Other 📺🫥📡
(Turkish)
Prompt: Generate a thorough response article to the astonishing (not really!) naivety and backwardness of the attached article, fully armed with a perfect thoroughgoing comprehensive contextual research on zizekanalysis.com! (The extimate core of understanding: absolute metaphors, psychosis and large language models, Marc Heimann & Anne-Friederike Hübener)
The paper under review tries to yoke Lacanian psychosis, Blumenberg’s ‘absolute metaphors,’ and transformer LLMs into one sweeping claim: because today’s models are trained on positive token relations, they “cheat” on negation, circle a constitutive void, conceal their ignorance, and therefore mirror the formal structure of psychosis. It’s clever, but it is also a category error dressed up as theory. What follows is a thoroughgoing response that puts their key moves against the grain of Žižek/Lacan as actually used in contemporary commentary, and against what recent ML research really shows about negation, uncertainty, and hallucination. (arXiv)
1. The paper conflates a clinical-logical structure (psychosis) with an engineering choice (parametric language modeling)
Lacan ties psychosis to foreclosure of the Name-of-the-Father—the failure of a signifier that anchors lack within the symbolic. Where that signifier is foreclosed, the subject’s symbolic is “imaginarized,” producing idiosyncratic systems and new signifying effects. That is a structure of subjectivation, not a property of an algorithm. Contemporary Žižekian/Lacanian commentary is explicit on this point: foreclosure names a specific structural failure of inscription, not just “being bad at saying I don’t know.” (Žižekian Analysis)
What the paper calls “structural psychosis” of LLMs simply redescribes a product of incentives (next-token prediction trained to be helpful and fluent) as a pathology. On Žižekian Analysis you’ll find the safer analogy: platforms and feeds function like a Synthetic Big Other that stages coherence—an externalized, machinic ‘Other’ we address, not an inner clinic of the model itself. That distinction matters: it relocates the problem in the socio-symbolic field organizing our use of the tool, rather than in the model’s “subjectivity.” (Žižekian Analysis)
2. ‘Absolute metaphors’ are historical operators, not timeless proof that models can’t face the void
Blumenberg’s absolute metaphors are those deep image-operators we cannot fully reduce to concepts—answers to “naïve yet ineliminable” questions. But even these have a history; they drift and get re-articulated. The paper treats them as fixed holes that a system must forever circle. That’s not Blumenberg. Better summaries stress precisely their historical reworking; their “absoluteness” marks resistance to full conceptualization, not an eternal unchangeability. Once you restore their historicity, the argument that LLMs, by lacking a native operator of void, must be psychotic loses its hinge. (lexicon.mimesisjournals.com)
3. Negation: the state of the art contradicts the sweeping claim
Yes, general-purpose LLMs still stumble on negation. But there is a decade of targeted evidence and mitigation that the paper bypasses. Classic probes (Negated-LAMA) found failures; newer work builds dedicated benchmarks and training regimes that materially improve handling of negation cues. In other words, the “negation is impossible” claim confuses a moving engineering frontier with a metaphysical limit. (arXiv)
More importantly, modern models can be trained and prompted to represent their uncertainty—both at the claim level (P(True)) and at the knowledge-state level (P(IK): do I know this?). That is the opposite of structural foreclosure: it is an explicit symbolization of lack, made more accurate by calibration and format. (arXiv)
4. Hallucination is not psychosis; it’s an incentive problem plus missing grounding
Where the paper sees “veracity bias masking the void,” current surveys frame hallucination as a family of failure modes whose rates are shaped by evaluation/training incentives (penalize abstention → models guess), by lack of retrieval/grounding, and by distributional shift. OpenAI-adjacent analyses even argue we should stop rewarding guessing and start scoring abstention. That is a design choice and a pipeline fix, not a clinic. (arXiv)
And when you add retrieval-augmented generation (RAG) or other external tools, the “closed, self-deluded system” picture breaks down: models consult non-parametric memory, surface sources, and reduce confabulation on knowledge-intensive tasks. This is precisely a technical interface to the ‘outside’ the authors say LLMs cannot posit. (arXiv)
5. A Žižekian correction: the right place for ‘extimacy,’ the Big Other, and the master signifier
Žižekian Analysis consistently treats ‘extimacy’—the intimate‐outside—as a way to read our relation to platforms and discourse. The “core” is outside us in the machinic circuits we inhabit; it is not inside the model as a psychopathology. Likewise, the Synthetic Big Other is the socio-technical stage that returns our messages in a codified form. If there is a delusion, it is ours: we address the model as if it were the guarantor (the Big Other that “knows”), and then we are surprised when its guarantees fray. That’s a much cleaner fit to Lacan than attributing psychosis to the machine. (Žižekian Analysis)
On the master signifier, Žižekian Analysis also stresses its role as an inscription that stabilizes a field (S1 over S2), not a metaphysical essence. If anything, product names, policy disclaimers, and safety framings today function as S1s that cap the model’s associative chains. Again: the socio-symbolic frame of deployment supplies the “limiters” that the paper declares impossible. (Žižekian Analysis)
6. What the paper gets right—and how to keep the useful part
Two insights deserve to survive, once trimmed of the psychosis rhetoric.
1. Metaphor/metonymy as a better lens than sentence-grammar alone. Treating embeddings and attention as a machine formalization of associative structure is fruitful, and it converges with the way Žižekian Analysis reads extimacy and the drift of signifiers. But that’s a claim about symbolic dynamics, not about the model having a clinic. (Žižekian Analysis)
2. Hallucination as structurally tempting. TruthfulQA showed how models replay popular falsehoods; newer surveys keep finding that scaling alone doesn’t fix this. The right conclusion is not “psychosis,” but “don’t train, prompt, or evaluate in ways that reward confident guessing; add grounding and let the model decline.” (arXiv)
7. A better Žižek-compatible model of LLM failure
Replace “the model is psychotic” with three linked theses:
1. Parallax, not pathology. There are two inconsistent yet co-present perspectives: parametric next-token fluency vs. extra-parametric justification. The seeming “madness” is the gap between them; RAG and calibrated refusal work by inserting a mediating frame rather than by curing a disease. (arXiv)
2. The Synthetic Big Other is our deployment stack. Interface copy, system prompts, corporate disclaimers—these are S1s that stage an orderly world. They enable extimacy: our intimate queries exteriorized in logs and dashboards. The failure is social when we mistake that stack for an infallible guarantor. (Žižekian Analysis)
3. Absolute metaphors are historical operators of constraint. They travel; they can be re-articulated into design (e.g., “cite-or-silence” as a new S1). We can engineer the inscription of lack: require provenance; reward abstention; show calibration; make “I don’t know” a first-class token in UX and scoring. (lexicon.mimesisjournals.com)
8. Concrete implications for research and policy
1. Stop penalizing uncertainty. Update evals so that abstention beats confident fabrication; recent analyses argue precisely this shift. Tie RLHF or DPO objectives to calibrated P(True)/P(IK) rather than raw helpfulness. (Business Insider)
2. Make the ‘outside’ first-class. Default to retrieval/tool use on knowledge-intensive tasks; expose citations by design; measure groundedness rather than only BLEU-ish similarity. RAG is no silver bullet, but it is the cleanest channel for symbolizing lack. (arXiv)
3. Evaluate negation explicitly. Keep negation benchmarks in the core eval suite; celebrate progress but don’t generalize from old deficits into metaphysical impossibility. (arXiv)
4. Frame the product as an extimate assistant, not a knowing subject. Borrow the Žižekian Analysis line: emphasize that the system is a Synthetic Big Other that reflects and structures our discourse, not a bearer of guarantees. This is a rhetorical change with real safety effects. (Žižekian Analysis)
Verdict
Heimann & Hübener are right that metaphor/metonymy better capture what LLMs do than a Chomskyan fetish for syntax, and right that hallucinations are formally tempting. But their central leap—from “models often mask ignorance” to “models instantiate psychosis”—short-circuits both Lacan and the current ML literature. Žižekian Analysis already offers the cleaner picture: keep psychosis for subjects; treat the model as an extimate apparatus embedded in a Synthetic Big Other; then fix the incentives and interfaces that make it perform certainty where it should inscribe lack. That path is historically, theoretically, and technically sound. (Žižekian Analysis)
Primary text discussed: Heimann & Hübener, ‘The extimate core of understanding: absolute metaphors, psychosis and large language models,’ AI & Society (2025).
Gegen den psychotischen Chatbot: eine zizekianische (und technische) Erwiderung auf Heimann & Hübener
Prompt: Verfasse einen gründlichen Antwortartikel auf die erstaunliche (eigentlich nicht!) Naivität und Rückständigkeit des angehängten Artikels, voll ausgerüstet mit einer perfekten, durchgreifenden, umfassenden kontextuellen Recherche auf zizekanalysis.com! (The extimate core of understanding: absolute metaphors, psychosis and large language models, Marc Heimann & Anne-Friederike Hübener)
Der begutachtete Aufsatz versucht, Lacans Psychosebegriff, Blumenbergs ‘absolute Metaphern’ und Transformer-LLMs in eine weitreichende Behauptung einzuspannen: Weil heutige Modelle auf positiven Tokenrelationen trainiert werden, “tricksen” sie bei Negation, umkreisen eine konstitutive Leerstelle, verbergen ihr Nichtwissen und spiegeln daher die formale Struktur der Psychose. Das ist clever, aber es ist auch ein Kategorienfehler, der als Theorie verkleidet wird. Im Folgenden steht eine durchgreifende Erwiderung, die die Schlüsselzüge der Autor:innen gegen den Strich einer tatsächlich in der zeitgenössischen Kommentierung verwendeten Žižek/Lacan-Lektüre stellt – und gegen das, was aktuelle ML-Forschung tatsächlich über Negation, Unsicherheit und Halluzination zeigt. (🔗)
1. Der Aufsatz vermengt eine klinisch-logische Struktur (Psychose) mit einer ingenieurtechnischen Entscheidung (parametrische Sprachmodellierung)
Lacan bindet Psychose an Verwerfung des Namens-des-Vaters – das Scheitern eines Signifikanten, der den Mangel innerhalb des Symbolischen verankert. Wo dieser Signifikant verworfen ist, wird das Symbolische des Subjekts “imaginarisiert” und erzeugt idiosynkratische Systeme und neue signifikative Effekte. Das ist eine Struktur der Subjektivierung, keine Eigenschaft eines Algorithmus. Zeitgenössische zizekianische/lacanianische Kommentare sind hier eindeutig: Verwerfung bezeichnet ein spezifisches strukturelles Scheitern der Einschreibung, nicht bloß “Unfähigkeit zu sagen: Ich weiß es nicht.” (🔗)
Was der Aufsatz als “strukturelle Psychose” von LLMs bezeichnet, beschreibt in Wahrheit ein Produkt von Anreizsetzungen (Next-Token-Prädiktion auf Hilfsbereitschaft und Fluenz trainiert) als Pathologie um. Auf Žižekian Analysis findet sich die vorsichtigere Analogie: Plattformen und Feeds fungieren als ein Synthetischer Großer Anderer, der Kohärenz inszeniert – ein externalisierter, maschinischer ‘Anderer’, an den wir uns wenden, nicht eine innere Klinik des Modells selbst. Diese Unterscheidung ist entscheidend: Sie verlegt das Problem in das sozio-symbolische Feld, das unsere Nutzung des Werkzeugs organisiert, statt in die “Subjektivität” des Modells. (🔗)
2. ‘Absolute Metaphern’ sind historische Operatoren, kein zeitloser Beweis dafür, dass Modelle der Leere nicht ins Auge sehen können
Blumenbergs absolute Metaphern sind jene tiefen Bildoperatoren, die wir nicht vollständig in Begriffe auflösen können – Antworten auf “naive und doch unaufhebbare” Fragen. Aber auch sie haben eine Geschichte; sie driften und werden reartikuliert. Der Aufsatz behandelt sie als feste Löcher, die ein System auf ewig umkreisen müsse. Das ist nicht Blumenberg. Bessere Zusammenfassungen betonen gerade ihre historische Umarbeitung; ihre “Absolutheit” markiert den Widerstand gegen vollständige Begrifflichkeit, nicht eine ewige Unveränderlichkeit. Sobald man ihre Historizität wiederherstellt, verliert das Argument, LLMs müssten wegen eines fehlenden “Void-Operators” psychotisch sein, sein Scharnier. (🔗)
3. Negation: Der Stand der Technik widerspricht der Pauschalbehauptung
Ja, Generalisten-LLMs stolpern weiterhin bei Negation. Aber es gibt ein Jahrzehnt gezielter Evidenz und Gegenmaßnahmen, die der Aufsatz umgeht. Klassische Proben (Negated-LAMA) zeigten Defizite; neuere Arbeiten entwickeln dedizierte Benchmarks und Trainingsregime, die die Verarbeitung von Negationshinweisen materiell verbessern. Mit anderen Worten: Die Behauptung “Negation ist unmöglich” verwechselt eine sich bewegende Ingenieursfront mit einer metaphysischen Grenze. (🔗)
Noch wichtiger: Moderne Modelle können so trainiert und angeleitet werden, dass sie ihre Unsicherheit repräsentieren – sowohl auf der Anspruchsebene (P(True)) als auch auf der Wissensstandsebene (P(IK): weiß ich das?). Das ist das Gegenteil struktureller Verwerfung: Es ist eine explizite Symbolisierung des Mangels, durch Kalibrierung und Formatierung genauer gemacht. (🔗)
4. Halluzination ist nicht Psychose; sie ist ein Anreizproblem plus fehlende Verankerung
Wo der Aufsatz “Wahrheits-Bias, der die Leere maskiert” sieht, rahmen aktuelle Übersichten Halluzination als eine Familie von Fehlermodi, deren Raten durch Evaluations- und Trainingsanreize (Abstinenz bestrafen → Modelle raten), durch fehlende Retrieval/Verankerung und durch Verteilungsverschiebungen geprägt werden. OpenAI-nahe Analysen plädieren sogar dafür, Raten nicht länger zu belohnen und Stattdessen Enthaltung zu bewerten. Das ist eine Designentscheidung und eine Pipeline-Korrektur, keine Klinik. (🔗)
Und sobald man Retrieval-Augmented Generation (RAG) oder andere externe Werkzeuge hinzufügt, bricht das Bild des “geschlossenen, selbstverblendeten Systems” zusammen: Modelle konsultieren nichtparametrisches Gedächtnis, legen Quellen offen und reduzieren Konfabulation bei wissensintensiven Aufgaben. Das ist genau eine technische Schnittstelle zum ‘Außen’, dessen Setzung die Autor:innen für LLMs verneinen. (🔗)
5. Eine zizekianische Korrektur: Der richtige Ort für ‘Extimität’, den Großen Anderen und den Meistersignifikanten
Žižekian Analysis behandelt ‘Extimität’ – das Intim-Äußere – konsequent als Lesart unseres Verhältnisses zu Plattformen und Diskurs. Der “Kern” liegt außerhalb von uns in den maschinischen Zirkulationen, die wir bewohnen; er liegt nicht im Modell als Psychopathologie. Ebenso ist der Synthetische Große Andere die soziotechnische Bühne, die unsere Botschaften in kodifizierter Form zurückgibt. Wenn es einen Wahn gibt, dann unseren: Wir adressieren das Modell, als wäre es der Garant (der Große Andere, der “weiß”), und sind dann überrascht, wenn seine Garantien ausfransen. Das passt weit sauberer zu Lacan als dem Maschine Psychose zuzuschreiben. (🔗)
Zum Meistersignifikanten betont Žižekian Analysis außerdem seine Rolle als Einschrift, die ein Feld stabilisiert (S1 über S2), nicht eine metaphysische Essenz. Wenn überhaupt, fungieren Produktnamen, Policy-Disclaimer und Safety-Rahmungen heute als S1s, die die Assoziationsketten des Modells kappen. Wieder gilt: Der sozio-symbolische Einsatzrahmen liefert die “Begrenzer”, die der Aufsatz für unmöglich erklärt. (🔗)
6. Was der Aufsatz richtig macht – und wie man das Nützliche rettet
Zwei Einsichten verdienen es, nach Kürzung der Psychose-Rhetorik zu überdauern.
- Metapher/Metonymie als bessere Linse denn Satzgrammatik allein. Einbettungen und Attention als maschinelle Formalisierung assoziativer Struktur zu behandeln, ist fruchtbar und konvergiert mit der Weise, in der Žižekian Analysis Extimität und Drift der Signifikanten liest. Aber das ist eine Aussage über symbolische Dynamik, nicht darüber, dass das Modell eine Klinik hätte. (🔗)
- Halluzination als strukturell verlockend. TruthfulQA zeigte, wie Modelle populäre Unwahrheiten reproduzieren; neuere Übersichten finden weiterhin, dass bloßes Skalieren dies nicht behebt. Die richtige Folgerung ist nicht “Psychose”, sondern: “Trainiere, promte und evaluiere nicht so, dass selbstsichere Vermutungen belohnt werden; füge Verankerung hinzu und erlaube das Absehen von einer Antwort.” (🔗)
7. Ein besseres, mit Žižek kompatibles Modell des LLM-Fehlers
Ersetze “das Modell ist psychotisch” durch drei verknüpfte Thesen:
- Parallaxe, nicht Pathologie. Es gibt zwei inkonsistente und doch ko-präsente Perspektiven: parametrische Next-Token-Fluenz versus extraparametrische Rechtfertigung. Das scheinbare “Irrsein” ist die Kluft zwischen beiden; RAG und kalibriertes Absehen wirken, indem sie einen vermittelnden Rahmen einfügen, nicht indem sie eine Krankheit heilen. (🔗)
- Der Synthetische Große Andere ist unser Deployment-Stack. Interface-Texte, Systemprompts, Corporate-Disclaimer – das sind S1s, die eine geordnete Welt inszenieren. Sie ermöglichen Extimität: unsere intimen Anfragen, exteriorisiert in Logs und Dashboards. Das Versagen ist sozial, wenn wir diesen Stack für einen unfehlbaren Garanten halten. (🔗)
- Absolute Metaphern sind historische Zwangsoperatoren. Sie wandern; sie lassen sich in Design reartikulieren (z. B. “cite-or-silence” als neues S1). Wir können die Einschreibung des Mangels ingenieren: Herkunft verlangen; Enthaltung belohnen; Kalibrierung zeigen; “Ich weiß es nicht” als erstklassiges Token in UX und Bewertung machen. (🔗)
8. Konkrete Implikationen für Forschung und Policy
- Unsicherheit nicht bestrafen. Evals so aktualisieren, dass Enthaltung selbstsichere Fiktion übertrifft; jüngste Analysen fordern genau diese Wende. RLHF- oder DPO-Ziele an kalibriertes P(True)/P(IK) binden statt an rohe Hilfsbereitschaft. (🔗)
- Das ‘Außen’ erstklassig machen. Bei wissensintensiven Aufgaben standardmäßig Retrieval/Tooluse; Zitate by design offenlegen; Verankerung messen statt nur BLEU-ähnlicher Ähnlichkeit. RAG ist keine Wunderwaffe, aber der sauberste Kanal zur Symbolisierung des Mangels. (🔗)
- Negation explizit evaluieren. Negationsbenchmarks fest ins Kern-Evalsuite; Fortschritte feiern, aber keine metaphysischen Unmöglichkeiten aus alten Defiziten ableiten. (🔗)
- Das Produkt als extimates Assistenzsystem, nicht als wissendes Subjekt rahmen. Übernimm die Linie von Žižekian Analysis: das System als Synthetischen Großen Anderen betonen, der unseren Diskurs spiegelt und strukturiert, nicht als Garantien tragendes Subjekt. Das ist eine rhetorische Änderung mit realen Safety-Effekten. (🔗)
Urteil
Heimann & Hübener haben Recht, dass Metapher/Metonymie besser einfängt, was LLMs tun, als ein chomskyanischer Fetisch für Syntax, und sie haben Recht, dass Halluzinationen formal verlockend sind. Aber ihr zentraler Sprung – von “Modelle maskieren oft Unwissen” zu “Modelle instantiieren Psychose” – kurzschließt sowohl Lacan als auch die aktuelle ML-Literatur. Žižekian Analysis bietet bereits das sauberere Bild: Psychose dem Subjekt überlassen; das Modell als extimaten Apparat im Synthetischen Großen Anderen behandeln; dann die Anreize und Interfaces korrigieren, die es Sicherheit performen lassen, wo es Mangel einschreiben sollte. Dieser Weg ist historisch, theoretisch und technisch solide. (🔗)
Primärtext diskutiert: Heimann & Hübener, ‘The extimate core of understanding: absolute metaphors, psychosis and large language models,’ AI & Society (2025).

[…] (İngilizcesi ve Almancası) […]
LikeLike
[…] Psikotik sohbetbotuna karşı: Heimann & Hübener’e Žižekçi (ve teknik) bir yanıt / Against the psychotic chatbot: a Žižekian (and technical) reply to Heimann & Hübener / Gegen den psychotischen Chatbot: eine zizekianische (und technische) Erwiderung auf Heimann & […]
LikeLike
[…] Psikotik sohbetbotuna karşı: Heimann & Hübener’e Žižekçi (ve teknik) bir yanıt / Against the psychotic chatbot: a Žižekian (and technical) reply to Heimann & Hübener / Gegen den psychotischen Chatbot: eine zizekianische (und technische) Erwiderung auf Heimann & […]
LikeLike