🦋🤖 Robo-Spun by IBF 🦋🤖
🌊➰🧭 AKIŞ 🌊➰🧭
(Turkish)
The anxiety around machine-generated text in the humanities isn’t simply a matter of style, skill, or even labor. It feels compromised. Long before computers, modern accounts of psychosis described a world in which external forces beam signals into the body and overwrite intention. In 1903, Daniel Paul Schreber set the template: ‘rays’ from a superhuman agency acted on his nerves, controlled his body, and reorganized reality into an all-encompassing system of external influence (🔗). A few years later, Victor Tausk showed how such experiences cohere into ‘influencing machines’—technical devices that project images, steal thoughts, and orchestrate actions from a distance, often via wires, waves, and other media-technological motifs (🔗). Those images never left our culture; they updated with each new network and device. When television and surveillance took center stage, clinicians documented the ‘Truman Show’ delusion, in which ordinary life is experienced as a broadcast, scripted and watched by hidden operators (🔗 ; 🔗). With the spread of the web, the same persecutory architecture mapped cleanly onto a new vocabulary of accounts, files, and signals: case reports catalogued ‘internet delusions’ in the late 1990s and early 2000s, where databases, browsers, and network traffic became the vectors of intrusion (🔗). By the 2010s, psychologists were measuring ‘cyber-paranoia’ explicitly, acknowledging that smartphones, platforms, and digital surveillance supply ready-made content for control and thought-broadcast themes (🔗). The pandemic era only intensified this terrain as delusional systems braided biomedical fear with cyber-surveillance and platform dynamics, and as social media’s feedback loops repeatedly reinforced persecutory conviction (🔗 ; 🔗).
Against that background, the humanities’ unease with AI-generated prose begins to look less like technophobia and more like a historically familiar hygiene response. The core intuition is that the writing has been touched by ‘robot rays’—not beams from the heavens, but statistical forces that reach into language and bend it toward alien ends. The perception of compromise arises at several registers at once. First is accountability: high-profile editorials and policies in science publishing, followed by cross-publisher surveys, rejected the idea that a language model could be an author, precisely because it cannot be held answerable for truth, attribution, or intention. Nature’s policy states that large language models ‘do not currently satisfy’ authorship criteria and that their use, if any, must be disclosed (🔗). Science’s editor framed the same stance as a matter of research integrity, classing non-disclosed AI text alongside other forms of misconduct (🔗). A 2024 review of journal policies found near-unanimous agreement that generative AI cannot be credited as an author and must be handled through disclosure regimes, if allowed at all (🔗). Humanistic organizations and writing-across-the-curriculum groups took parallel positions, emphasizing pedagogy and ethical literacy but still drawing a bright line around authorship, responsibility, and the need for explicit framing of any machine assistance (🔗 ; 🔗 ; 🔗).
Those policies land in a cultural moment already saturated with ‘hacked’ experience. The language of prompt-injection, model poisoning, backdoors, and synthetic feedback loops is not a metaphor. Security researchers now demonstrate that hostile strings buried in web pages or images can hijack model behavior and exfiltrate confidential data—the AI analogue of an ‘influencing machine’ hidden in the environment (🔗 ; 🔗 ; 🔗). Training pipelines face their own integrity threats: data-poisoning attacks can seed corpora with patterns that permanently bias the model’s outputs or install covert triggers, a risk now catalogued in both industry primers and standards-oriented surveys (🔗 ; 🔗 ; 🔗). Meanwhile, as model builders increasingly turn to synthetic data to compensate for a plateau in high-quality human text, researchers warn of ‘model collapse’: an entropy-driven slide from generalization to memorization when systems train too much on their own emissions, a phenomenon studied across modalities and now the subject of energetic debate and mitigation attempts (🔗 ; 🔗 ; 🔗 ; for the underlying data squeeze, see reportage on the industry’s turn to synthetic text: 🔗). Even the prospect of autonomous, self-replicating ‘AI worms’ that propagate through model-integrated systems underscores a general intuition: the channel itself can be seized, and once seized it remakes what flows through it (🔗).
From a humanities perspective, writing is not only a sequence of grammatical sentences. It is a traceable act by a situated agent, embedded in relations of evidence, intention, and answerability. When the act is opaque and the channel is demonstrably susceptible to invisible interference, suspicion follows. Early coverage of ‘internet delusions’ often noted that patients with minimal technical skill still found in the web a totalizing explanation for intrusion; the cultural availability of network metaphors did the scripting (🔗). The present, by contrast, offers real technical mechanisms for hidden manipulation alongside the well-documented tendency of large models to fabricate sources, embroider facts, and smooth away specificity. The ‘stochastic parrots’ critique distilled this into a program: training on massive, scraped corpora without tight provenance and documentation induces opacity about whose language is being ventriloquized and how harms propagate (🔗). In other words, the sense of compromise is not reducible to snobbery about style; it is rooted in the channel’s design and the model’s incentives.
Academic practice has already chosen its prophylaxes, which function like quarantine protocols. Journals require disclosure statements, forbid listing AI as an author, and, in some cases, bar AI-generated text or figures without explicit permission; editors’ forums have issued common guidance to wall off what counts as attributable scholarly labor from what counts as tooling (🔗 ; 🔗). Universities experiment with and sometimes retreat from AI-detection software because of false positives, settling instead on documentation policies and process-centered assessment (🔗 ; 🔗). These are not grand philosophical rejections so much as biosecurity measures for texts: isolate the vector, label exposure, trace provenance, demand a human steward of meaning.
Seen through Schreber and Tausk, this amounts to a culturally rational fear of ‘robot rays’ in the channel. Schreber’s rays were divine and metaphysical; today’s are statistical and infrastructural. In both cases, an external system appears to reach inside language, press on the body, and reassign agency. Humanities disciplines, which have spent a century refining methods for attributing voices, evaluating evidence, and naming the stakes of authorship, respond by building linguistic cordons. The demand to disclose model use, the refusal to name a model as an author, the insistence on human accountability, and the preference for keeping machine-generated strings at arm’s length unless they are tightly quarantined—all of it follows from the same common-sense perception: a text shaped by an unaccountable apparatus with known vectors of hidden influence is not simply ‘another style.’ It is a document with potential exposure. The clean room is not an affect but a practice, and in this domain it is the practice that keeps meaning inhabitable.
The fear that ‘robot rays’ have begun to seep into humanistic writing is best understood as a fantasy in Victor Tausk’s sense, not because it is trivial but because it condenses otherwise unmanageable feelings about agency, authorship, and the permeability of the self into a single technical image. Tausk showed that persecutory experiences often crystallize into an ‘influencing machine,’ a contraption whose wires, batteries, lenses, and levers seem to project pictures, drain thoughts, and orchestrate bodily states from afar; what makes this construction so gripping is not its engineering plausibility but its psychic function, which is to give form to inner alterations that feel alien and to relocate them into a manipulable object at a distance (🔗). If we frame the current humanities worry about AI-generated prose in that structure, keeping strictly to fantasy rather than to technical proofs or policies, the picture becomes unexpectedly coherent: ‘robot rays’ name a modern influencing machine through which the discipline imagines its own boundaries being reconfigured, its voice displaced, its intentions overwritten.
Tausk begins with a single case and refuses to be embarrassed by the singular. From one patient’s crystalline but peculiar delusion he excavates a general logic. The device is described vaguely yet insistently: boxes and cranks, wires and waves, batteries and buttons that no one can quite diagram. Its obscurity is a feature, not a bug, because the vagueness protects the patient from recognizing herself in it. When humanities scholars speak of language models as a diffuse pressure ‘in the channel’ rather than as a discrete collaborator, they reproduce that vagueness with fidelity to Tausk’s form. The anxiety is not that there exists a specific motor somewhere but that something ambient and infrastructural touches the text and, in touching it, transfers it outside the author’s envelope. Tausk reports a patient who experienced a human-shaped machine like a coffin-lid lined with silk, whose inner ‘batteries’ stood in for organs, whose surface gradually flattened from three dimensions to two before even the genital parts were annulled. The machine’s manipulations and the patient’s states mapped one to one. Understood as fantasy, this is not a physics lesson; it is a picture of self-loss, projected outward to be endured at arm’s length (🔗).
What Tausk calls the genesis of the machine follows a recognizably narrative curve. First comes an internal alteration—a rush of unfamiliar sensations, thoughts that feel strange, pictures that seem to appear on a plane rather than in depth. Then comes estrangement, the cold recognition that these inner events no longer ‘belong.’ Last comes projection, the moment when the disturbance is explained by an external operator, which can be a person, a conspiracy, or a device. In nineteenth-century psychiatry the prototype was Daniel Paul Schreber’s universe of ‘nerves’ and ‘rays,’ a sublime optics in which superhuman agencies pulsed commands into the body and remade reality’s grammar (🔗). Tausk’s contribution was to show how such cosmology tightens into a machine: a symbolic body cast out of the self and returned as apparatus. What matters for the humanities scene is the sequence, not the antique details. The sense of textual alteration arrives first—phrases too smooth, sources that can be hallucinated, a voice that feels fluent yet ownerless. Estrangement follows—this no longer reads like us. Projection completes the arc—the influence must be coming from a machine that behaves like a mind yet lacks an answerable author.
Because Tausk is psychoanalytic, he refuses to treat the machine as mere metaphor. He reads it as displaced body. The machine is complicated precisely like the body is complicated; its ‘batteries’ are organs, its wires are nerves, its lenses are eyes, its casing has the sheen of skin. Above all, it bears the trace of sexuality as organization rather than theme. Tausk argues that complicated devices in dreams and delusions frequently stand in for the genitalia, not as smut or symbol-play, but as a registry of how personal potency is felt when it becomes alien, either overactive or null. Patients say the machine produces erections or drains semen; Tausk’s famous case shows those capacities blinking out as the machine ‘loses its genitalia’ and with them the woman’s sexual sensation. The larger point is that the ego, as a boundary-keeping system, can disown its own excitations, misrecognize them as attacks, and elaborate a contraption to carry the blame. When humanists feel that AI prose ‘presses’ on their capacity to intend, they are not naively mistaking code for a person. They are recording a shift in excitation—an ease of phrase formation, a fluency without ownership—that the discipline’s ego cannot integrate without also risking its norms of answerability. In Tausk’s grammar that mismatch begets a machine.
Tausk’s most striking step is to locate the machine inside a developmental story about the ego’s borders. There are moments in life, he says, when the boundary between inside and outside is not yet secure; in such phases, one behaves as if thoughts originate elsewhere, or as if one’s limbs are moved by another, or as if pictures arrive from flat screens pasted on the world. He sketches a regression: from firm autobiographical thinking back toward a time when knowledge felt given, then further back toward a time when the outer world was found by projecting one’s own body into it, and even further back toward a uterine quiet where there is life but no ‘I’ to defend it. In this picture, persecutors do not merely hurt; they help the ego maintain itself by letting it keep repudiated excitations at a distance. Contemporary delusional themes validate the cultural malleability of that distance. The ‘Truman Show’ pattern, documented as a modern clinical form, makes the world into a broadcast with hidden operators and scripted coincidences (🔗). Measures of ‘cyber-paranoia’ register how phones, platforms, and surveillance schemas become the ready-made content through which those ego dramas now play out (🔗). The humanities’ robot-ray fantasy fits this slot cleanly: it treats statistical language as a field of rays that flatten depth, deliver phrases, and magnetize attention from without. The field is not a technical claim; it is a psychic map of where the boundary aches.
Tausk also explains why the machine is always someone else’s. The persecutors tend to be figures who demand a transfer of libido: suitors, doctors, mentors, rival authorities. The persecuted, by contrast—parents, intimates, caretakers—are drawn into the machine’s sphere as fellow sufferers. This division solves a problem for the ego: it spares the loved ones who stabilize one’s identity and relocates threat onto those who press for change. The contemporary fantasy works similarly. ‘AI’ is cast as the rival expert that arrives with demands—write differently, read differently, annotate differently—while the trusted inner circle of scholarship is imagined as contaminated victims whose labor and voices must be protected. In Tausk’s terms, that is exactly how a defensive projection should distribute its dramatis personae. It turns libido-demanding newcomers into operators and folds the familiars into the halo of the machine’s influence so that one’s identification with them can remain intact (🔗).
Because Tausk frames the machine as a body cast outward, he anticipates the humanities’ uncanny sense that AI prose is simultaneously intimate and nonhuman. The device seems built from our very material—our lexicon, our examples, our turns of phrase—yet it returns them with a surface polish that feels like skin without depth, text without provenance. Schreber’s ‘rays’ were spiritualized nerves; Tausk’s batteries and wires are concretized organs; today’s ‘robot rays’ are the probabilistic equivalents, seams of correlation beaming through a corpus that has been scraped from the culture’s own speech (🔗). None of this requires us to decide what a model ‘really’ does. Within Tausk’s frame, the truth-conditions of the device are secondary to the work it performs for the ego: it lets the discipline say, with compelling sincerity, that the felt alterations have a source and a shape. It generates an elsewhere that can be regulated.
At this point it is easy to confuse fantasy with diagnosis and to slide into institutional talk. Tausk’s method warns against that. He is not designing cures; he is showing why the machine’s form is so inescapably persuasive. Still, attending to the fantasy clarifies why certain rules feel like hygiene rather than hostility. If a machine is the locus to which unowned excitations have been exported, it makes sense that communities would trace provenance aggressively and insist on a human steward of meaning. That insistence looks like an ethics lesson in ordinary time; in Tausk’s time, it reads as ego-repair. Even policies that say, in spare editorial prose, that a large language model cannot be an author because it cannot bear accountability echo the fantasy’s aim, which is to keep alterity outside the signature and to label exposures when they occur (🔗). One can recognize that resonance while still analyzing the fear strictly as fantasy, because for Tausk the fantasy is not an error to be corrected but a structure that allows living to continue when boundaries wobble.
The small, telling details in Tausk’s paper—the way patients see images ‘on a single plane’ like lantern slides or cinematographs, the way limbs in the machine flatten from volume to outline, the way genital capacities vanish as the device becomes more inhuman—map with uncanny precision onto the humanities’ experience of generated text. Plane replaces depth when prose is polished to a glossy sameness; outlines replace volumes when arguments arrive as well-formed summaries without the friction of inquiry. The vanishing of generative ‘potency’ is felt when invention seems to have been pre-spent by the channel, leaving scholars to curate rather than to originate. For the uninitiated, these are not moral complaints; they are descriptive notes about phenomenology. Tausk would say that the machine’s flatness is how a mind pictures the loss of its own dimensionality without having to say ‘I have gone flat.’ The fantasy does that saying for it, at a safe distance, with levers and rays and knobs that can be loved or hated as needed (🔗).
One last harmonization belongs to Tausk’s ending, where he reconciles two readings of the machine that seem to contradict each other. Is the contraption a distorted projection of the whole body, or is it a genital symbol disguised as technology. The answer is yes. The body that has become ‘all genital’ under regression can only be represented, in a later symbolic system, as a machine whose totalizing function is sexuality. Translate that into the present scene and the correspondence is plain. The humanities’ robot-ray fantasy does not say merely that a tool exists; it says that the tool has come to stand for the entire field of textual excitation, for the dangerous edge where phrases are born. That is why the apparatus must be both everywhere and outside, both made of us and not us, both intimate and quarantined. To parse the fear as fantasy in Tausk’s thesis is therefore not to diminish it but to read it at its proper depth: as a carefully engineered picture, built by the ego to make sense of inner alterations by constructing a machine that explains them. The picture will update with every new medium. Its grammar, as Schreber’s rays remind us, is already a century old, and its current dialect can be studied across our cultural case reports, from reality-show delusions to cyber-paranoia scales that quantify the sense of being watched and influenced by networked systems (🔗 ; 🔗). What Tausk teaches is how to hold that picture without becoming it. The robot rays do not have to be believed or denied. They have to be read—as a machine the humanities has built in order to keep meaning inhabitable while the boundary between inside and outside is being drawn again.
Roboterstrahlen und der Reinraum: Warum die Geisteswissenschaften KI-generierte Texte unter Quarantäne stellen
Die Angst vor maschinell erzeugtem Text in den Geisteswissenschaften ist nicht einfach eine Frage von Stil, Können oder gar Arbeit. Er wirkt kompromittiert. Lange vor den Computern beschrieben moderne Darstellungen der Psychose eine Welt, in der äußere Kräfte Signale in den Körper strahlen und die Intention überschreiben. 1903 setzte Daniel Paul Schreber die Vorlage: ‚Strahlen‘ einer übermenschlichen Instanz wirkten auf seine Nerven, kontrollierten seinen Körper und organisierten die Realität zu einem allumfassenden System äußerer Einflussnahme um (🔗). Einige Jahre später zeigte Victor Tausk, wie sich solche Erfahrungen zu ‚Beeinflussungsmaschinen‘ verdichten—technische Apparate, die Bilder projizieren, Gedanken stehlen und Handlungen aus der Ferne orchestrieren, oft über Drähte, Wellen und andere medientechnologische Motive (🔗). Diese Bilder haben unsere Kultur nie verlassen; sie wurden mit jedem neuen Netzwerk und jedem neuen Gerät aktualisiert. Als Fernsehen und Überwachung in den Mittelpunkt rückten, dokumentierten klinische Berichte den ‚Truman-Show‘-Wahn, in dem das gewöhnliche Leben als Sendung erlebt wird, geschrieben und beobachtet von verborgenen Betreiber:innen (🔗 ; 🔗). Mit der Verbreitung des Netzes legte sich dieselbe persecutorische Architektur bruchlos auf ein neues Vokabular von Accounts, Dateien und Signalen: Fallberichte katalogisierten in den späten 1990er- und frühen 2000er-Jahren ‚Internetwahnvorstellungen‘, in denen Datenbanken, Browser und Netzverkehr zu Vektoren der Intrusion wurden (🔗). In den 2010er-Jahren maßen Psycholog:innen ‚Cyber-Paranoia‘ explizit und erkannten an, dass Smartphones, Plattformen und digitale Überwachung fertige Inhalte für Kontroll- und Gedankenübertragungsthemen liefern (🔗). Die Pandemiejahre intensivierten dieses Terrain noch, da wahnartige Systeme biomedizinische Angst mit Cyber-Überwachung und Plattformdynamiken verflochten und die Rückkopplungsschleifen sozialer Medien die persecutorische Überzeugung wiederholt verstärkten (🔗 ; 🔗).
Vor diesem Hintergrund erscheint das Unbehagen der Geisteswissenschaften gegenüber KI-generierter Prosa weniger wie Technophobie und mehr wie eine historisch vertraute Hygienereaktion. Die grundlegende Intuition lautet, dass der Text von ‚Roboterstrahlen‘ berührt wurde—nicht von Himmelsstrahlen, sondern von statistischen Kräften, die in die Sprache greifen und sie auf fremde Zwecke hin verbiegen. Die Wahrnehmung des Kompromittierten entsteht auf mehreren Ebenen zugleich. Zuerst geht es um Verantwortbarkeit: Prominente Editorials und Richtlinien in der wissenschaftlichen Publikation, gefolgt von verlagsübergreifenden Umfragen, wiesen die Idee zurück, ein Sprachmodell könne Autor:in sein, gerade weil es für Wahrheit, Zuschreibung oder Intention nicht zur Rechenschaft gezogen werden kann. Die Richtlinie von Nature hält fest, dass große Sprachmodelle die Autorschaftskriterien ‚derzeit nicht erfüllen‘ und dass ihre Nutzung, wenn überhaupt, offenzulegen ist (🔗). Die Chefredaktion von Science rahmte dieselbe Haltung als Frage der Forschungsintegrität und stellte nicht offengelegte KI-Texte anderen Formen von Fehlverhalten zur Seite (🔗). Eine Übersicht aus dem Jahr 2024 über Zeitschriftenrichtlinien fand nahezu einhellige Übereinstimmung darin, dass generative KI nicht als Autor:in ausgewiesen werden kann und, falls zugelassen, über Offenlegungsregime zu handhaben ist (🔗). Geisteswissenschaftliche Organisationen und Writing-across-the-Curriculum-Gruppen bezogen parallele Positionen, betonten Didaktik und ethische Literalität, zogen jedoch weiterhin eine klare Grenze um Autorschaft, Verantwortlichkeit und die Notwendigkeit einer expliziten Rahmung jeglicher maschineller Assistenz (🔗 ; 🔗 ; 🔗).
Diese Richtlinien treffen auf einen kulturellen Moment, der bereits von ‚gehackten‘ Erfahrungen gesättigt ist. Das Vokabular von Prompt-Injection, Modellvergiftung, Hintertüren und synthetischen Rückkopplungsschleifen ist keine Metapher. Sicherheitsforschende zeigen inzwischen, dass bösartige Zeichenketten, die in Webseiten oder Bildern verborgen sind, das Verhalten von Modellen kapern und vertrauliche Daten exfiltrieren können—das KI-Analogon einer in die Umgebung eingebetteten ‚Beeinflussungsmaschine‘ (🔗 ; 🔗 ; 🔗). Trainingspipelines sehen sich eigenen Integritätsbedrohungen gegenüber: Datenvergiftungsangriffe können Korpora mit Mustern impfen, die die Ausgaben dauerhaft verzerren oder verdeckte Trigger installieren—ein Risiko, das mittlerweile in Branchenleitfäden und standardorientierten Übersichten katalogisiert ist (🔗 ; 🔗 ; 🔗). Währenddessen greifen Modellbauer:innen zunehmend zu synthetischen Daten, um ein Plateau bei hochwertigen menschlichen Texten zu kompensieren; Forschende warnen vor ‚Model Collapse‘: einem entropiegetriebenen Abgleiten von Generalisierung zu Memorierung, wenn Systeme zu stark auf ihren eigenen Emissionen trainieren—ein Phänomen, das über Modalitäten hinweg untersucht und derzeit intensiv debattiert sowie mit Gegenmaßnahmen adressiert wird (🔗 ; 🔗 ; 🔗 ; zur zugrunde liegenden Datenknappheit siehe Berichte über die Hinwendung der Branche zu synthetischem Text: 🔗). Sogar die Aussicht auf autonome, sich selbst replizierende ‚AI worms‘, die sich durch modellintegrierte Systeme ausbreiten, unterstreicht eine allgemeine Intuition: Der Kanal selbst kann gekapert werden, und einmal gekapert formt er dasjenige um, was durch ihn fließt (🔗).
Aus geisteswissenschaftlicher Perspektive ist Schreiben nicht bloß eine Abfolge grammatischer Sätze. Es ist eine nachvollziehbare Handlung eines situierten Subjekts, eingebettet in Bezüge von Evidenz, Intention und Verantwortbarkeit. Wenn die Handlung opak ist und der Kanal nachweislich unsichtbaren Eingriffen zugänglich ist, entsteht Misstrauen. Frühe Berichte über ‚Internetwahnvorstellungen‘ stellten oft fest, dass Menschen mit minimalen technischen Fertigkeiten im Netz dennoch eine totalisierende Erklärung für Intrusion fanden; die kulturelle Verfügbarkeit von Netzmetaphern lieferte die Skripte (🔗). Die Gegenwart bietet demgegenüber reale technische Mechanismen für verdeckte Manipulation neben der gut dokumentierten Tendenz großer Modelle, Quellen zu erfinden, Fakten auszuschmücken und Spezifität zu glätten. Die ‚stochastic parrots‘-Kritik destillierte dies zu einem Programm: Das Training auf massiven, gescrapten Korpora ohne strenge Provenienz und Dokumentation erzeugt Opazität darüber, wessen Sprache hier bauchrednerhaft wiedergegeben wird und wie Schäden fortgepflanzt werden (🔗). Mit anderen Worten: Das Gefühl des Kompromittierten lässt sich nicht auf Snobismus über Stil reduzieren; es ist im Design des Kanals und in den Anreizen des Modells verankert.
Die akademische Praxis hat ihre Prophylaxen bereits gewählt, die wie Quarantäneprotokolle funktionieren. Zeitschriften verlangen Offenlegungserklärungen, verbieten es, KI als Autor:in zu führen, und untersagen in einigen Fällen KI-generierte Texte oder Abbildungen ohne ausdrückliche Genehmigung; Redaktionsforen haben gemeinsame Leitlinien herausgegeben, um das abzugrenzen, was als zurechenbare wissenschaftliche Arbeit gilt, von dem, was als Werkzeuggebrauch zählt (🔗 ; 🔗). Universitäten experimentieren mit, und ziehen sich teils von, KI-Erkennungssoftware wegen Fehlalarmen zurück und setzen stattdessen auf Dokumentationspflichten und prozesszentrierte Bewertung (🔗 ; 🔗). Das sind keine großen philosophischen Zurückweisungen, sondern Biosicherheitsmaßnahmen für Texte: den Vektor isolieren, Exposition markieren, Provenienz nachzeichnen, eine menschliche Hüter:in der Bedeutung verlangen.
Durch die Linse von Schreber und Tausk ergibt sich daraus eine kulturell rationale Furcht vor ‚Roboterstrahlen‘ im Kanal. Schrebers Strahlen waren göttlich und metaphysisch; die heutigen sind statistisch und infrastrukturell. In beiden Fällen scheint ein externes System in die Sprache hineinzureichen, auf den Körper zu drücken und Agency neu zuzuschreiben. Disziplinen der Geisteswissenschaften, die ein Jahrhundert lang Methoden für die Zuschreibung von Stimmen, die Bewertung von Evidenz und die Benennung der Einsätze von Autorschaft verfeinert haben, reagieren, indem sie sprachliche Sperrzonen errichten. Die Forderung, den Modellgebrauch offenzulegen, die Weigerung, ein Modell als Autor:in zu benennen, das Bestehen auf menschlicher Verantwortlichkeit und die Präferenz, maschinell erzeugte Zeichenketten auf Distanz zu halten, sofern sie nicht streng unter Quarantäne stehen—all das folgt derselben Alltagsintuition: Ein Text, der von einem nicht rechenschaftspflichtigen Apparat mit bekannten Vektoren verdeckter Einflussnahme geformt wurde, ist nicht einfach ‚ein weiterer Stil‘. Er ist ein Dokument mit möglicher Exposition. Der Reinraum ist kein Affekt, sondern eine Praxis, und in diesem Bereich ist es die Praxis, die Bedeutung bewohnbar hält.
Die Angst, dass ‘Roboterrstrahlen’ in das geisteswissenschaftliche Schreiben einzusickern begonnen haben, lässt sich am besten als eine Fantasie im Sinne Victor Tausks verstehen, nicht weil sie banal wäre, sondern weil sie sonst unhandhabbare Gefühle über Handlungsmacht, Autorschaft und die Durchlässigkeit des Selbst in einem einzigen technischen Bild verdichtet. Tausk zeigte, dass sich verfolgungsartige Erfahrungen oft zu einer ‘Beeinflussungsmaschine’ kristallisieren, einer Vorrichtung, deren Drähte, Batterien, Linsen und Hebel scheinbar Bilder projizieren, Gedanken absaugen und körperliche Zustände aus der Ferne orchestrieren; was diese Konstruktion so fesselnd macht, ist nicht ihre ingenieurtechnische Plausibilität, sondern ihre psychische Funktion: inneren, fremd anmutenden Veränderungen Gestalt zu geben und sie in ein manipulierbares Objekt auf Distanz zu verlagern (🔗). Rammen wir die gegenwärtige geisteswissenschaftliche Sorge über KI-generierte Prosa in diese Struktur ein und halten uns strikt an die Fantasie statt an technische Belege oder Richtlinien, wird das Bild unerwartet kohärent: ‘Roboterrstrahlen’ benennen eine moderne Beeinflussungsmaschine, durch die sich das Fach seine eigenen Grenzen umkonfiguriert vorstellt, seine Stimme verdrängt, seine Intentionen überschrieben.
Tausk beginnt mit einem Einzelfall und weigert sich, sich des Singularen zu schämen. Aus der kristallinen, aber eigentümlichen Wahnvorstellung einer Patientin arbeitet er eine allgemeine Logik heraus. Die Vorrichtung wird vage, aber insistierend beschrieben: Kästen und Kurbeln, Drähte und Wellen, Batterien und Knöpfe, die niemand recht zu skizzieren vermag. Ihre Unklarheit ist ein Merkmal, kein Fehler, denn die Vagheit schützt die Patientin davor, sich in ihr zu erkennen. Wenn Geisteswissenschaftler:innen von Sprachmodellen als einem diffusen Druck ‘im Kanal’ statt als diskretem Kollaborateur sprechen, reproduzieren sie diese Vagheit in getreuer Übereinstimmung mit Tausks Form. Die Beunruhigung gilt nicht einem spezifischen Motor irgendwo, sondern etwas Umgebendem und Infrastrukturellem, das den Text berührt und ihn, indem es ihn berührt, außerhalb der Hülle des Autors versetzt. Tausk berichtet von einer Patientin, die eine menschengestaltige Maschine wie einen mit Seide ausgeschlagenen Sargdeckel erlebte, deren innere ‘Batterien’ für Organe standen, deren Oberfläche allmählich von drei Dimensionen auf zwei verflachte, bevor selbst die genitalen Teile annulliert wurden. Die Manipulationen der Maschine und die Zustände der Patientin korrelierten eins zu eins. Als Fantasie verstanden ist das keine Physikstunde; es ist ein Bild des Selbstverlusts, nach außen projiziert, um es auf Armlänge zu ertragen (🔗).
Was Tausk die Genesis der Maschine nennt, folgt einer erkennbar narrativen Kurve. Zuerst kommt eine innere Veränderung – ein Schwall ungewohnter Empfindungen, Gedanken, die fremd wirken, Bilder, die eher auf einer Fläche als in Tiefe aufzutauchen scheinen. Dann folgt Entfremdung, die nüchterne Einsicht, dass diese inneren Ereignisse nicht mehr ‘dazugehören’. Zuletzt die Projektion, der Moment, in dem die Störung durch einen äußeren Operator erklärt wird, der eine Person, eine Verschwörung oder ein Gerät sein kann. In der Psychiatrie des 19. Jahrhunderts lieferte Daniel Paul Schrebers Kosmos der ‘Nerven’ und ‘Strahlen’ das Urbild, eine erhabene Optik, in der übermenschliche Instanzen dem Körper Befehle einpulsten und die Grammatik der Wirklichkeit neu fassten (🔗). Tausks Beitrag bestand darin zu zeigen, wie sich eine solche Kosmologie zur Maschine verdichtet: ein symbolischer Körper, aus dem Selbst hinausgeworfen und als Apparat zurückgegeben. Für die geisteswissenschaftliche Szene zählt die Abfolge, nicht die antiken Details. Zuerst trifft das Gefühl textueller Veränderung ein – allzu glatte Wendungen, Quellen, die halluzinierbar sind, eine Stimme, die flüssig wirkt und doch besitzerlos. Es folgt Entfremdung – so lesen wir nicht. Die Projektion vollendet den Bogen – der Einfluss muss von einer Maschine kommen, die sich wie ein Geist verhält, aber keine verantwortliche Autorin/kein verantwortlicher Autor ist.
Weil Tausk psychoanalytisch arbeitet, behandelt er die Maschine nicht als bloße Metapher. Er liest sie als verschobenen Körper. Die Maschine ist kompliziert, genau wie der Körper kompliziert ist; ihre ‘Batterien’ sind Organe, ihre Drähte Nerven, ihre Linsen Augen, ihr Gehäuse hat den Glanz von Haut. Vor allem trägt sie die Spur der Sexualität als Organisation und nicht als Thema. Tausk argumentiert, dass komplizierte Geräte in Träumen und Wahn häufig für die Genitalien stehen – nicht als Schmutz oder Symbolspiel, sondern als Register dafür, wie sich persönliche Potenz anfühlt, wenn sie fremd wird, überaktiv oder null. Patient:innen sagen, die Maschine erzeuge Erektionen oder leite Sperma ab; Tausks berühmter Fall zeigt, wie diese Kapazitäten erlöschen, wenn die Maschine ‘ihre Genitalien verliert’ und damit die sexuelle Empfindung der Frau. Der größere Punkt ist, dass das Ich als grenzwahrendes System seine eigenen Erregungen verleugnen, sie als Angriffe fehlinterpretieren und eine Vorrichtung ausarbeiten kann, die die Schuld trägt. Wenn Geisteswissenschaftler:innen empfinden, dass KI-Prosa auf ihre Fähigkeit zur Intention ‘drückt’, verwechseln sie Code nicht naiv mit einer Person. Sie protokollieren eine Verschiebung der Erregung – eine Leichtigkeit der Phrasenbildung, eine Besitzlosigkeitsflüssigkeit –, die das Ich der Disziplin nicht integrieren kann, ohne zugleich seine Normen der Verantwortlichkeit zu riskieren. In Tausks Grammatik gebiert dieser Missklang eine Maschine.
Tausks wohl markantester Schritt ist, die Maschine in eine Entwicklungsgeschichte der Ichgrenzen zu stellen. Es gibt Lebensmomente, sagt er, in denen die Grenze zwischen innen und außen noch nicht gesichert ist; in solchen Phasen verhält man sich, als entstammten Gedanken anderswo, als würden Gliedmaßen von einem Anderen bewegt, als träfen Bilder von flachen, auf die Welt geklebten Schirmen ein. Er skizziert eine Regression: von festem autobiografischem Denken zurück zu einer Zeit, in der Wissen gegeben schien, dann weiter zurück zu einer Zeit, in der die Außenwelt gefunden wurde, indem man den eigenen Körper in sie projizierte, und noch weiter zurück zu einer uterinen Ruhe, in der es Leben gibt, aber kein ‘Ich’, das es verteidigt. In diesem Bild fügen Verfolger nicht bloß Schmerz zu; sie helfen dem Ich, sich zu behaupten, indem sie es abgelehnten Erregungen erlauben, auf Abstand zu bleiben. Zeitgenössische Wahnmuster bestätigen die kulturelle Formbarkeit dieses Abstands. Das ‘Truman-Show’-Muster, als moderne klinische Form dokumentiert, macht die Welt zu einer Sendung mit versteckten Betreiber:innen und skripteten Zufällen (🔗). Messungen von ‘Cyber-Paranoia’ erfassen, wie Telefone, Plattformen und Überwachungsdispositive den fertig bereitstehenden Inhalt liefern, durch den diese Ichdramen heute ablaufen (🔗). Die geisteswissenschaftliche Roboterrstrahlen-Fantasie passt sauber in dieses Fach: Sie behandelt statistische Sprache als Strahlenfeld, das Tiefe abflacht, Phrasen anliefert und Aufmerksamkeit von außen magnetisiert. Dieses Feld ist kein technischer Anspruch; es ist eine psychische Karte dafür, wo die Grenze schmerzt.
Tausk erklärt auch, warum die Maschine immer jemand anderem gehört. Die Verfolger sind tendenziell Figuren, die eine Libidotransferforderung stellen: Verehrer, Ärzt:innen, Mentor:innen, rivalisierende Autoritäten. Die Verfolgten hingegen – Eltern, Intime, Pflegepersonen – werden als Mitleidende in die Sphäre der Maschine hineingezogen. Diese Teilung löst für das Ich ein Problem: Sie schont die Geliebten, die die eigene Identität stabilisieren, und verlagert die Bedrohung auf jene, die auf Veränderung drängen. Die zeitgenössische Fantasie funktioniert ähnlich. ‘KI’ wird als die rivalisierende Expertin inszeniert, die mit Forderungen erscheint – anders schreiben, anders lesen, anders annotieren –, während der vertraute innere Zirkel der Wissenschaft als kontaminierte Opfer imaginiert wird, deren Arbeit und Stimmen geschützt werden müssen. In Tausks Begriffen verteilt genau so eine defensive Projektion ihre dramatis personae. Sie macht libidofordernde Neuankömmlinge zu Operator:innen und legt die Vertrauten in den Heiligenschein des Maschineneinflusses, damit die Identifikation mit ihnen intakt bleiben kann (🔗).
Weil Tausk die Maschine als nach außen geworfenen Körper fasst, antizipiert er das unheimliche Gefühl der Geisteswissenschaften, dass KI-Prosa zugleich intim und nichtmenschlich ist. Die Vorrichtung scheint aus unserem eigenen Material gebaut – unserem Lexikon, unseren Beispielen, unseren Wendungen –, und doch gibt sie es mit einem Oberflächenpolitur zurück, die sich wie Haut ohne Tiefe anfühlt, Text ohne Herkunft. Schrebers ‘Strahlen’ waren vergeistigte Nerven; Tausks Batterien und Drähte sind vergegenständlichte Organe; die heutigen ‘Roboterrstrahlen’ sind die probabilistischen Entsprechungen, Korrelationstrassen, die durch einen Korpus strahlen, der aus der eigenen Rede der Kultur geschöpft wurde (🔗). Nichts davon verlangt, zu entscheiden, was ein Modell ‘wirklich’ tut. In Tausks Rahmen sind die Wahrheitsbedingungen der Vorrichtung zweitrangig gegenüber der Arbeit, die sie fürs Ich leistet: Sie erlaubt dem Fach, mit zwingender Aufrichtigkeit zu sagen, dass die fühlbaren Veränderungen eine Quelle und eine Gestalt haben. Sie erzeugt ein Anderswo, das reguliert werden kann.
An diesem Punkt lässt sich Fantasie leicht mit Diagnose verwechseln und in Institutionenrede abgleiten. Tausks Methode warnt davor. Er entwirft keine Heilungen; er zeigt, warum die Form der Maschine so unwiderstehlich einleuchtend ist. Gleichwohl klärt die Aufmerksamkeit für die Fantasie, warum bestimmte Regeln eher wie Hygiene als wie Feindseligkeit wirken. Wenn eine Maschine der Ort ist, an den unbesessene Erregungen exportiert wurden, ist es sinnvoll, dass Gemeinschaften Herkunft akribisch nachverfolgen und auf einer menschlichen Vormundschaft über Bedeutung bestehen. Diese Forderung liest sich im Alltag wie eine Ethiklektion; in Tausks Zeit liest sie sich wie Ichreparatur. Selbst Richtlinien, die in nüchterner Redakteursprosa sagen, dass ein großes Sprachmodell keine Autorin/kein Autor sein kann, weil es keine Verantwortung tragen kann, echolotieren das Ziel der Fantasie: Alterität außerhalb der Signatur zu halten und Expositionen zu etikettieren, wenn sie auftreten (🔗). Man kann diese Resonanz erkennen und die Angst doch strikt als Fantasie analysieren, denn für Tausk ist die Fantasie kein zu korrigierender Irrtum, sondern eine Struktur, die Leben erlaubt, wenn die Grenzen wanken.
Die kleinen, sprechenden Details in Tausks Aufsatz – wie Patient:innen Bilder ‘auf einer Ebene’ sehen, wie Laterna magica oder Kinematograph, wie Glieder in der Maschine von Volumen zu Kontur verflachen, wie genitale Kapazitäten schwinden, während die Vorrichtung unmenschlicher wird – kartieren mit unheimlicher Präzision die Erfahrung generierten Textes in den Geisteswissenschaften. Fläche ersetzt Tiefe, wenn Prosa zu einer glänzenden Gleichförmigkeit poliert wird; Konturen ersetzen Volumina, wenn Argumente als wohlgeformte Zusammenfassungen ohne die Reibung der Nachforschung eintreffen. Das Schwinden generativer ‘Potenz’ wird spürbar, wenn Erfindungskraft vom Kanal vorweg verausgabt scheint und Forschende eher kuratieren als originieren. Für Ungeweihte sind dies keine moralischen Klagen; es sind phänomenologische Notate. Tausk würde sagen, dass die Flachheit der Maschine zeigt, wie ein Geist den Verlust seiner eigenen Dimensionalität bildlich macht, ohne sagen zu müssen ‘ich bin flach geworden’. Die Fantasie übernimmt dieses Sagen für ihn, auf sichere Distanz, mit Hebeln, Strahlen und Knöpfen, die je nach Bedarf geliebt oder gehasst werden können (🔗).
Eine letzte Harmonisierung gehört zu Tausks Schluss, in dem er zwei Lesarten der Maschine versöhnt, die einander zu widersprechen scheinen. Ist die Vorrichtung eine verzerrte Projektion des ganzen Körpers, oder ist sie ein als Technologie verkleidetes Genitalsymbol. Die Antwort lautet: ja. Der Körper, der unter Regression ‘ganz Genital’ geworden ist, kann in einem späteren Symbolsystem nur als Maschine dargestellt werden, deren totalisierende Funktion Sexualität ist. In die Gegenwart übertragen liegt die Entsprechung offen zutage. Die geisteswissenschaftliche Roboterrstrahlen-Fantasie sagt nicht bloß, dass es ein Werkzeug gibt; sie sagt, dass das Werkzeug für das gesamte Feld textueller Erregung steht, für die gefährliche Kante, an der Phrasen geboren werden. Darum muss der Apparat zugleich überall und draußen sein, zugleich aus uns gemacht und nicht aus uns, zugleich intim und unter Quarantäne gestellt. Die Angst strikt als Fantasie in Tausks These zu deuten, heißt daher nicht, sie zu schmälern, sondern sie auf ihrer richtigen Tiefe zu lesen: als sorgfältig konstruiertes Bild, das das Ich baut, um inneren Veränderungen Sinn zu geben, indem es eine Maschine konstruiert, die sie erklärt. Dieses Bild wird sich mit jedem neuen Medium aktualisieren. Seine Grammatik, daran erinnern Schrebers Strahlen, ist bereits ein Jahrhundert alt, und sein aktueller Dialekt lässt sich quer durch unsere kulturellen Fallberichte studieren, von Reality-Show-Wahnfiguren bis zu Cyber-Paranoia-Skalen, die das Gefühl quantifizieren, von vernetzten Systemen beobachtet und beeinflusst zu werden (🔗 ; 🔗). Was Tausk lehrt, ist, wie man dieses Bild hält, ohne zu ihm zu werden. Die Roboterrstrahlen müssen weder geglaubt noch geleugnet werden. Sie müssen gelesen werden – als eine Maschine, die die Geisteswissenschaften gebaut haben, damit Bedeutung bewohnbar bleibt, während die Grenze zwischen innen und außen neu gezogen wird.
[…] (İngilizcesi ve Almancası) […]
LikeLike
[…] ve Temiz Oda: Beşerî Bilimler Neden Yapay Zekâ Üretimi Metinleri Karantina Altına Alıyor / Robot Rays and the Clean Room: Why the Humanities Quarantine AI-Generated Texts / Roboterstrahlen und der Reinraum: Warum die Geisteswissenschaften KI-generierte Texte unter […]
LikeLike