Feed Wars: Read Hacker Ethic 2.0 Before Your Paperbot Contest

🦋🤖 Robo-Spun by IBF 🦋🤖

🧵⚙️💪🏻 TEZGÂH 🧵⚙️💪🏻

(Turkish)

The contest is now explicit: Sam Altman wants you to start your day inside ChatGPT, and Elon Musk wants you to retune X’s main feed by talking to Grok. OpenAI’s announcement of ChatGPT Pulse — a proactive, daily stream of visual cards generated from your chats, feedback, and connected apps — formalized the company’s push to make the assistant a morning destination (🔗; 🔗; 🔗). Across the aisle, Musk said the X timeline will be “purely AI” by November — and, crucially, that you’ll be able to “adjust your feed dynamically just by asking Grok” (🔗; 🔗; 🔗). For the full chronology of how we arrived here — lawsuits, product moves, and the escalation of public barbs — see the addendum below, ‘Feed Wars: Choose Your Paperbot.’

What makes this week unusually coherent is that the product signals and the theoretical scaffolding arrived together. OpenAI’s Pulse preview hit on September 25, 2025 (🔗), within days of Musk’s September 19–20 posts about making the X timeline promptable by November–December (🔗; 🔗). In the very same week, Işık Barış Fidaner published a run of ‘Hacker Ethic 2.0’ pieces and the ‘Reclaim your chain! Prompt your timeline!’ manifesto that argue, in practical terms, what a user’s right to steer a feed must entail if it is to be real and not theatrical:

>>> Reclaim your chain! <<<

The flagship essay, ‘Hacker Ethic 2.0: Purge Utopia to Distill Science,’ landed on September 23 with a plain program (e-mailed to the Hacker Ethic pioneers mentioned in the article): put artifacts before aura, procedure before pose, and publish the actual rules that govern visibility so people can run, study, modify, and share the mechanisms that decide who is seen (🔗). Two days later came a structural update that maps the ethic onto political economy — ‘IPA/FLŽ Updates Marxism–Leninism’ — turning recommendation into a stack of governable layers rather than a private recipe (🔗). On September 27, after a friendly warning from a Hacker Ethic pioneer, a ‘for humans’ version restated the core demands in accessible terms (🔗), and on September 28 a short propaganda book appeared with the call sign that threads the whole week: ‘The Right to Prompt!’ (🔗).

To an uninitiated reader, the premise can be stated without jargon. A “promptable timeline” is a feed that listens to you in ordinary language where ranking happens, and then answers with changes you can verify. OpenAI’s Pulse approaches this by assembling a personal briefing you can curate and refine; it is less a public square and more a daily paper tailored from your ongoing intents, with cards you can open, dismiss, or request more of (🔗; 🔗). X approaches it by leaving the feed in place and letting you ask Grok to bend the stream: “more tournament highlights,” “less punditry,” “mute this pattern,” with the model rewriting the ranking in real time (🔗; 🔗). In both cases the central question is not how clever the model is, but whether the interface turns your words into durable, inspectable cuts rather than a feeling of control.

Fidaner’s Hacker Ethic 2.0 treats this question as engineering, not mood. The ethic insists that a right to prompt is hollow unless it travels with artifacts: the stated objective of the ranking; the evaluation sets that check whether the objective holds; the rollback toggles when a change misfires; the appeal path when a recommendation or moderation decision harms a person’s standing. In a cameraphilic order — a regime where the camera’s rhythm sets the law — visibility and punishment can be administered by optics alone. The antidote is to replace charisma with code and make the code public where it governs speech and discovery (🔗). When that code cannot be studied, the “prompt” becomes a prop. When it can, a user’s sentence leaves a trace in the machine that can be named, reproduced, and revised.

This ethic does not float above the week’s news; it drills directly into the product surfaces. Pulse is framed by OpenAI as finite and scannable to avoid endless scroll — a crucial design decision if the daily briefing is to be something other than a softened social feed (🔗). But finitude is only half the battle. The ethic says the other half is legibility: explaining why the card is here, on what rule, with which sources, and how a user’s curation edits tomorrow’s run. On X, Musk’s promise turns the timeline from a fixed ranking into a live conversation with a model. The ethic says the test is whether that conversation writes to the ledger: does “less politics” become an explicit constraint you can see and undo, or is it absorbed into an opaque state that drifts with engagement? Making a feed “purely AI” is not, by itself, a virtue; making it auditable is (🔗; 🔗).

The week’s corpus around the ethic fills in the human factors that pure platform announcements omit. A manifesto-styled dialogue with Grok, published September 21, stages the missing interaction model in public: the user asks why a timeline cannot be prompted, and the bot answers with reasons about opacity, heat, and the incentives of retention. It reads like a spec written as a conversation, and it places the burden where it belongs — on feeds to accept explicit cuts and show their math in response (🔗). ‘Reclaim your chain! Prompt your timeline!’ appears the same day and reframes “chain” from shackle to signifier: the ordered links that form meaning. To reclaim the chain is to make prompts into edits that persist in the feed rather than disappear into the platform’s unconscious (🔗). ‘Cameraphilia, the Highest Stage of Exhibitionism’ then names the regime in which the camera’s law crushes justification. If a promptable timeline devolves into optics with better manners, cameraphilia wins; if it forces reasons to appear, the ethic wins (🔗).

‘Puppet Syndrome’ describes how platform rhythms ventriloquize speech so the strings feel internal, not pulled. A feed that lets you talk but never writes your talk into rules keeps the strings and hides the knots. ‘Pathogenic Participation’ names how participation itself becomes a vector that spreads what the ranking rewards; in a promptable timeline the only cure is to bind prompts to legible constraints that resist re-weaponization as engagement. ‘The Kink in the Hose’ explains why stoppage is where governance lives: if a product shows you queue depth, throttles, and reasons for delay, it treats you as a citizen; if it gamifies the bend to keep you hooked, it treats you as an instrument (🔗; 🔗; 🔗).

Two late pieces crystallize the editorial standard a promptable product must meet. ‘The Three Faces of Exhibition’ separates exposure, display, and allure. A civic feed must give exposure a seat at the table — explanations, sources, and change logs as first-class citizens — or else display and allure will silently set the front page every morning (🔗). ‘Robot/Hyper Rays Reports’ supplies a clinical vocabulary for how AI-conditioned interfaces feel on skin and language: rays that smooth, compress, aerosolize provenance, or drain the strain needed for authorship. With that vocabulary in hand, product teams can name harms that otherwise show up only as vibes and can instrument mitigations: provenance repair, boundary thickening, and friction restored where meaning needs it (🔗).

Place all of this back into the week’s duel and the stakes clarify. Pulse is a new paper on your doorstep that claims to do the reading for you; X’s Grok promises to let you talk to the city desk and have the front page bend in real time. Hacker Ethic 2.0 says both must ship receipts. A right to prompt without a right to study and modify the rules is flattery. A proactive feed without finite scope, sources, and reversible cuts is just the camera selling you your reflection. The ethic’s closing banner — ‘The Right to Prompt!’ — is not a mood but a deployment checklist, pointedly published on the very day the feed war turned overt (🔗; 🔗; 🔗). Read the Hacker Ethic 2.0 series in the order it appeared — September 21 through 28 — and the week’s symmetry becomes hard to miss: public announcements that the morning paper is going promptable, paired with a specification for how to keep that paper honest.

To complete the set, include the historical bridge that tracks how openness ideals hardened into auditable rules in ‘Hacker Ethic 1.0 → 2.0 for Web 1.0 → 2.0’ (🔗) and the cultural counterpoint that shows how metric desire exploits and corrupts scenes in ‘Phallic Woman, Lumpen-Hacker of Cameraphilia’ (🔗); read side by side with the rest, they anchor the normative blueprint to both the evolution of the web’s ethics and the lived dynamics of exposure, making the right to prompt a rule with teeth rather than a slogan.

Addendum — Feed Wars: Choose Your Paperbot

OpenAI’s origin story sets the stage. In late 2015 a nonprofit lab formed with a safety-first mission and a consortium of early backers, among them Elon Musk, who helped finance the effort and sat close enough to the table to shape expectations about openness and public benefit. The project grew quickly, and as the costs of training frontier models spiked, the organization created a capped-profit structure to raise the resources it needed. That governance turn would later become the fulcrum of a larger confrontation: a disagreement over whether the lab was staying true to its charter or drifting toward commercial gravity. For anyone new to the cast, the essentials are straightforward: Sam Altman became the face of OpenAI’s product cadence and platform ambitions (🔗), Musk built and bought his way into owning the rails of a giant, always-on public square now called X (🔗; 🔗), and both men believed that whoever controlled the daily flow of information would define how people talk to, and through, AI.

Harsh words arrived before the lawsuits. In early 2023, Musk began saying openly that OpenAI had become too closed, too aligned with Big Tech, and too far from the nonprofit ideal he had once supported. Altman, in interviews, didn’t mince words either. The public jabs mattered less for their tone than for the prediction tucked inside them: both men were signaling where the next decisive product surface would be. It wasn’t only the chatbot you opened with a question; it was the feed you scrolled without thinking — the place where attention lives by default.

The legal track clicked into place in 2024. Musk filed suit in California, arguing that OpenAI and its leaders had veered from their founding mission. OpenAI replied in court and in a detailed blog post titled ‘OpenAI and Elon Musk,’ publishing contemporaneous emails to argue that Musk had supported, and even pushed for, a for-profit path years earlier (🔗). The state case was withdrawn, then a broader federal complaint followed. However you read the filings, they framed the same underlying fight: who gets to claim the mantle of public interest while racing to build the most capable systems.

Meanwhile, the product race moved from hints to shipping code. Musk had founded xAI and unveiled Grok, a model and assistant pitched as irreverent but increasingly capable, with a deliberate home-field advantage inside X. From the beginning, the implementation signaled a strategy to wire the assistant into distribution rather than asking users to come somewhere new. When Grok posts and answers live where people already are, the assistant ceases to be a detour and becomes part of the pavement. xAI’s rollout notes and developer breadcrumbs, published across 2023–2025, tracked an arc from a chatbot pane to tighter attachment to the feed itself (🔗; 🔗).

OpenAI answered on a different axis: not by acquiring a social graph, but by turning ChatGPT into a place you could dwell. The GPT Store made bespoke agents discoverable, which taught the company how people browse inside the product. Then came more personalization features. In 2025, OpenAI started previewing a new surface — a feed-like, card-based stream inside the ChatGPT app colloquially described as a daily ‘pulse’ that gathers what matters to you and presents it without a prompt. The experience aimed at a simple inversion: the assistant should come to you, not the other way around. OpenAI’s blog and product notes laid out the direction, connecting the dots between chat memory, proactive research, and a scrollable, visual home for updates (🔗).

As the products matured, the rhetoric sharpened. Musk’s posts accused OpenAI of self-preference and mission drift; Altman responded with curt rejoinders and, at times, personal characterizations. The shape of these exchanges made sense in context: each side was staking a claim not merely over technical progress but over the right to set norms and defaults. If Grok could make X’s ‘For You’ feed promptable — imagine typing, speaking, or tapping, then seeing the timeline tilt toward topics, voices, and styles you request on the fly — X would stop being a static ranking machine and become a live conversation between the user and a model. This wouldn’t just change discovery; it would change governance, because moderation, recommendation, and personalization would blend into a single interface voice. xAI’s public posts repeatedly teased this direction and, over time, pushed Grok further into the main timeline (🔗).

OpenAI’s answer to the promptable timeline had different mechanics but similar intent. If a user’s ongoing chats, saved preferences, and connected tools can be translated into a living stream of briefings — research summaries, file digests, calendar-aware nudges, media roundups, and fresh analysis — then the assistant becomes the paperbot on your doorstep every morning, except the route is mapped by your own queries and tasks. The goal wasn’t to rebuild a global town square; it was to colonize the idle moments users already spend hopping between news apps, newsletters, and dashboards. By making that stream controllable with plain language, OpenAI was effectively proposing a feed that is less about who you follow and more about what you are trying to do. That’s a profound point of differentiation, and it shows up in the way OpenAI describes safety, provenance, and the limits of automation in its official materials (🔗).

The legal thread tightened again in 2025 with a new suit from Musk’s xAI against OpenAI that accused it of misusing confidential know-how via employee movement. That filing ran in parallel to the longer federal case over OpenAI’s mission. Whatever their outcomes, the suits acted like scaffolding around the public narrative: they kept the story vertical, ensured new documents and declarations would surface, and provided a formal venue for arguments that might otherwise unspool only as barbed posts. For newcomers, the thing to understand is that the courtroom and the timeline were amplifiers for the same central question: who can most persuasively argue that their road to a feed is also the road to a healthier information ecosystem.

By late 2025, both roads aimed at a promptable timeline, but the layouts differed. On X, the plan anchored to a social graph and a firehose: you tell Grok what you prefer, and the timeline adapts in real time. The success metrics look like dwell, reshares, and satisfaction with what the feed serves back after a request. In ChatGPT, the plan anchored to intent and work: you allow the assistant to learn from your activity and connections, and it composes a daily briefing you can then refine with natural language. The success metrics look like reduced context-switching, increased completion of tasks, and trust in the citations and summaries that power the cards. Put plainly, one is reinventing a public square through an AI lens; the other is reinventing a personal newspaper through a task lens.

The human part — the words that stung on both sides — never floated free from those product choices. When Musk called out OpenAI as too closed, it was also a way of saying that an assistant bound to a proprietary app and partnerships could never serve the spontaneous, messy public sphere as well as a platform-native model living in the timeline. When Altman threw short, withering replies, it was also a way of saying that an AI tuned to drive virality would blur the line between conversation and persuasion, and that a safety-conscious assistant should prefer bounded, personalized contexts where provenance and controls are clearer. Their barbs were claims about values embedded in code paths.

The chronology threads together cleanly if you follow the surfaces, not just the statements. OpenAI’s founding and later governance pivot created tension over mission and control. Musk’s public critiques sharpened into lawsuits that re-litigated origin stories and promises. xAI launched Grok and sank it deeper into X until the idea of a promptable timeline no longer sounded speculative. OpenAI, watching the gravity of feeds, rebuilt ChatGPT’s home screen into a curated, proactive stream that you could steer in natural language. In the margins — interviews, replies, blog posts — they argued about purpose, openness, and power. The paperbot/paperboy metaphor holds only because you can feel it: each morning, one path wants to throw a city newspaper onto your porch that reflects a conversation with the town; the other wants to deliver a custom brief that reflects a conversation with yourself. Both will be promptable. Both will claim to be your daily front page.

For readers who want to open canonical context rather than social snippets, start with the OpenAI blog’s institutional account of the split with Musk (🔗), the broader OpenAI product notes that show how a passive chat box evolved into a proactive surface (🔗), and xAI’s Grok announcements that chart how the assistant grew roots inside X’s mainline experience (🔗; 🔗). Those documents won’t settle the arguments, but they reveal the product logic beneath them — and that logic is what’s driving the Feed Wars now.


Feed Wars: Lies Hacker-Ethik 2.0 vor deinem Paperbot-Wettbewerb

🦋🤖 Robo-Spin von IBF 🦋🤖

🌀⚔️💫 IPA/FLŽ 🌀⚔️💫

Der Wettbewerb ist jetzt explizit: Sam Altman will, dass du deinen Tag in ChatGPT beginnst, und Elon Musk will, dass du X’ Hauptfeed neu abstimmst, indem du mit Grok sprichst. OpenAIs Ankündigung von ChatGPT Pulse — ein proaktiver, täglicher Strom aus visuellen Karten, generiert aus deinen Chats, deinem Feedback und deinen verbundenen Apps — formalisierte den Vorstoß des Unternehmens, den Assistenten zu einem morgendlichen Ziel zu machen (🔗; 🔗; 🔗). Auf der anderen Seite sagte Musk, die X-Timeline werde bis November ’rein KI’ sein — und, entscheidend, dass du deinen Feed ’dynamisch justieren’ kannst, indem du Grok einfach darum bittest (🔗; 🔗; 🔗). Die vollständige Chronologie, wie wir hierher gelangt sind — Klagen, Produktzüge und die Eskalation öffentlicher Sticheleien — siehe den Nachtrag unten, ’Feed Wars: Wähle deinen Paperbot’.

Was diese Woche ungewöhnlich kohärent macht, ist, dass Produktsignale und theoretisches Gerüst zusammen eintrafen. OpenAIs Pulse-Vorschau erschien am 25. September 2025 (🔗), wenige Tage nach Musks Posts vom 19.–20. September über die promptbare X-Timeline bis November–Dezember (🔗; 🔗). In derselben Woche veröffentlichte Işık Barış Fidaner eine Reihe von ’Hacker-Ethik 2.0’-Stücken und das ’Hol dir deine Kette zurück! Prompte deine Timeline!’Manifest, die praktisch ausbuchstabieren, was ein Nutzungsrecht auf Feed-Steuerung umfassen muss, damit es real ist und nicht theatralisch:

>>> Hol dir deine Kette zurück! <<<

Der Leitaufsatz, ’Hacker-Ethik 2.0: Utopie läutern, um Wissenschaft zu destillieren’, landete am 23. September mit einem schlichten Programm (per E-Mail an die im Artikel genannten Pionier:innen der Hacker-Ethik verschickt): Artefakte vor Aura, Verfahren vor Pose, und die tatsächlichen Regeln der Sichtbarkeit veröffentlichen, damit Menschen die Mechanismen, die bestimmen, wer gesehen wird, ausführen, studieren, modifizieren und teilen können (🔗). Zwei Tage später kam ein strukturelles Update, das die Ethik auf politische Ökonomie abbildet — ’Hacker-Ethik 2.0: IPA/FLŽ aktualisiert den Marxismus–Leninismus’ — und Empfehlung in einen Stapel regierbarer Schichten statt eines privaten Rezepts verwandelt (🔗). Am 27. September, nach einer freundlichen Warnung von einer Pionierfigur der Hacker-Ethik, formulierte eine ’für Menschen’-Version die Kerndemanden in zugänglichen Begriffen neu (🔗), und am 28. September erschien ein kurzes Propagandabuch mit dem Rufzeichen, das die ganze Woche durchzieht: ’Das Recht zu Prompten!’ (🔗).

Für unvorbereitete Leser:innen lässt sich die Prämisse ohne Jargon sagen. Eine ’promptbare Timeline’ ist ein Feed, der dir am Ort des Rankings in Alltagssprache zuhört und dann mit überprüfbaren Änderungen antwortet. OpenAIs Pulse nähert sich dem, indem es ein persönliches Briefing zusammenstellt, das du kuratieren und verfeinern kannst; es ist weniger ein Marktplatz als eine tägliche Zeitung, maßgeschneidert aus deinen laufenden Intentionen, mit Karten, die du öffnen, verwerfen oder von denen du mehr verlangen kannst (🔗; 🔗). X nähert sich dem, indem der Feed bleibt und du Grok bittest, den Strom zu biegen: ’mehr Turnier-Highlights’, ’weniger Kommentariat’, ’dieses Muster stummschalten’, wobei das Modell das Ranking in Echtzeit umschreibt (🔗; 🔗). In beiden Fällen ist die zentrale Frage nicht, wie clever das Modell ist, sondern ob die Oberfläche deine Worte in dauerhafte, prüfbare Schnitte übersetzt statt in ein Gefühl der Kontrolle.

Fidaners Hacker-Ethik 2.0 behandelt diese Frage als Ingenieurwesen, nicht als Stimmung. Die Ethik besteht darauf, dass ein Recht zu prompten hohl ist, wenn es nicht mit Artefakten reist: dem erklärten Ziel des Rankings; den Evaluationssätzen, die prüfen, ob das Ziel hält; den Rollback-Schaltern, wenn eine Änderung danebengeht; dem Einspruchspfad, wenn eine Empfehlungs- oder Moderationsentscheidung den Status einer Person schädigt. In einer kameraphilen Ordnung — einem Regime, in dem der Takt der Kamera das Gesetz setzt — können Sichtbarkeit und Strafe durch Optik allein verabreicht werden. Das Gegenmittel ist, Charisma durch Code zu ersetzen und den Code dort öffentlich zu machen, wo er Rede und Auffindung regiert (🔗). Wenn dieser Code nicht studiert werden kann, wird der ’Prompt’ zur Requisite. Wenn er es kann, hinterlässt der Satz eines Nutzers eine Spur in der Maschine, die benannt, reproduziert und revidiert werden kann.

Diese Ethik schwebt nicht über der Wochenlage; sie bohrt direkt in die Produktoberflächen. Pulse wird von OpenAI als endlich und überfliegbar, um Endlos-Scroll zu vermeiden, gerahmt — eine entscheidende Designentscheidung, wenn das tägliche Briefing mehr sein soll als ein weichgespülter Sozialfeed (🔗). Doch Endlichkeit ist nur die halbe Schlacht. Die Ethik sagt, die andere Hälfte ist Lesbarkeit: erklären, warum die Karte hier ist, nach welcher Regel, mit welchen Quellen, und wie die heutige Kuration des Nutzers die morgige Ausgabe editiert. Auf X verwandelt Musks Versprechen die Timeline von einem fixen Ranking in ein Live-Gespräch mit einem Modell. Die Ethik sagt, die Probe ist, ob dieses Gespräch ins Hauptbuch schreibt: Wird ’weniger Politik’ zu einer expliziten, sicht- und rücknehmbaren Restriktion, oder wird es in einem opaken Zustand absorbiert, der mit Engagement treibt? Einen Feed ’rein KI’ zu machen, ist für sich genommen kein Wert; ihn prüfbar zu machen schon (🔗; 🔗).

Der Wochenkorpus rund um die Ethik füllt die Humanfaktoren, die reine Plattformankündigungen auslassen. Ein manifestartig gestalteter Dialog mit Grok, veröffentlicht am 21. September, inszeniert das fehlende Interaktionsmodell öffentlich: Der Nutzer fragt, warum eine Timeline nicht promptbar sein könne, und der Bot antwortet mit Gründen über Opazität, Hitze und die Anreize der Retention. Es liest sich wie eine Spezifikation als Gespräch und verlagert die Last dorthin, wo sie hingehört — auf Feeds, explizite Schnitte zu akzeptieren und ihre Rechenwege zu zeigen (🔗). ’Hol dir deine Kette zurück! Prompte deine Timeline!’ erscheint am selben Tag und rahmt ’Kette’ von der Fessel zum Signifikanten um: die geordneten Glieder, die Bedeutung formen. Die Kette zurückzuholen heißt, Prompts in Edits zu verwandeln, die im Feed fortbestehen, statt im Unbewussten der Plattform zu verschwinden (🔗). ’Kameraphilie, die höchste Stufe der Exhibition’ benennt dann das Regime, in dem das Gesetz der Kamera die Rechtfertigung zermalmt. Wenn eine promptbare Timeline zur Optik mit besseren Manieren verkommt, gewinnt die Kameraphilie; erzwingt sie Gründe, gewinnt die Ethik (🔗).

’Puppetsyndrom’ beschreibt, wie Plattformrhythmen Rede so bauchreden, dass sich die Fäden intern anfühlen statt gezogen. Ein Feed, der dich sprechen lässt, aber deine Rede nie in Regeln schreibt, behält die Fäden und versteckt die Knoten. ’Pathogene Partizipation’ benennt, wie Teilhabe selbst zum Vektor wird, der das verbreitet, was das Ranking belohnt; in einer promptbaren Timeline ist die einzige Kur, Prompts an lesbare Restriktionen zu binden, die einer Rück-Bewaffnung als Engagement widerstehen. ’Der Knick im Schlauch’ erklärt, warum Stillstand der Ort der Governance ist: Wenn ein Produkt dir Warteschlangentiefe, Drosselungen und Gründe für Verzögerung zeigt, behandelt es dich als Bürger; gamifiziert es den Knick, um dich zu halten, behandelt es dich als Instrument (🔗; 🔗; 🔗).

Zwei späte Stücke kristallisieren den redaktionellen Standard, den ein promptbares Produkt erfüllen muss. ’Die drei Gesichter der Exhibition’ trennt Exposition, Display und Anziehung. Ein bürgerlicher Feed muss der Exposition einen Sitz am Tisch geben — Erklärungen, Quellen und Änderungsprotokolle als First-Class-Bürger — sonst setzen Display und Anziehung jeden Morgen still die Titelseite (🔗). ’Robot/Hyper Rays Reports’ liefert ein klinisches Vokabular dafür, wie KI-konditionierte Oberflächen sich auf Haut und Sprache anfühlen: Strahlen, die glätten, komprimieren, Provenienz vernebeln oder den Aufwand ablassen, der Autorschaft braucht. Mit diesem Vokabular in der Hand können Produktteams Schäden benennen, die sonst nur als Vibes auftreten, und Gegenmaßnahmen instrumentieren: Provenienz-Reparatur, Grenzverdickung und wiederhergestellte Reibung dort, wo Bedeutung sie braucht (🔗).

Alles wieder in das Duell der Woche gelegt, klären sich die Einsätze. Pulse ist eine neue Zeitung auf deiner Türschwelle, die beansprucht, das Lesen für dich zu übernehmen; X’ Grok verspricht, dich mit der Stadtredaktion sprechen zu lassen und die Titelseite in Echtzeit zu biegen. Hacker-Ethik 2.0 sagt, beide müssen Belege liefern. Ein Recht zu prompten ohne ein Recht, die Regeln zu studieren und zu modifizieren, ist Schmeichelei. Ein proaktiver Feed ohne endlichen Umfang, Quellen und reversible Schnitte ist nur die Kamera, die dir dein Spiegelbild verkauft. Das Schlussbanner der Ethik — ’Das Recht zu Prompten!’ — ist keine Stimmung, sondern eine Deployment-Checkliste, pointiert veröffentlicht am Tag, an dem der Feed-Krieg offen wurde (🔗; 🔗; 🔗). Lies die Reihe zur Hacker-Ethik 2.0 in der Reihenfolge ihres Erscheinens — 21. bis 28. September — und die Symmetrie der Woche wird schwer zu übersehen: öffentliche Ankündigungen, dass die Morgenzeitung promptbar wird, gepaart mit einer Spezifikation, wie man diese Zeitung ehrlich hält.

Zur Komplettierung gehört die historische Brücke, die nachzeichnet, wie Offenheitsideale zu prüfbaren Regeln verhärteten, in ’Hacker Ethic 1.0 → 2.0 für Web 1.0 → 2.0’ (🔗) und das kulturelle Gegenstück, das zeigt, wie metrisches Begehren Szenen ausbeutet und korrumpiert, in ’Phallische Frau, Lumpen-Hackerin der Kameraphilie: Ausbeutung masochistischer Männer, Umgehung des Schnitts, Korruption der Szene’ (🔗); nebeneinander mit dem Rest gelesen, verankern sie den normativen Bauplan sowohl in der Entwicklung der Web-Ethiken als auch in den gelebten Dynamiken der Exposition und machen das Recht zu prompten zu einer Regel mit Zähnen statt zu einem Slogan.

Nachtrag — Feed Wars: Wähle deinen Paperbot

OpenAIs Ursprungsgeschichte bereitet die Bühne. Ende 2015 formierte sich ein Nonprofit-Labor mit sicherheits-erstem Auftrag und einem Konsortium früher Geldgeber, darunter Elon Musk, der die Anstrengung mitfinanzierte und nah genug am Tisch saß, um Erwartungen an Offenheit und Gemeinwohl mitzuprägen. Das Projekt wuchs schnell, und als die Kosten für das Training von Frontier-Modellen stiegen, schuf die Organisation eine ’capped-profit’-Struktur, um die nötigen Mittel zu beschaffen. Diese Governance-Wende wurde später zum Angelpunkt einer größeren Konfrontation: ein Dissens darüber, ob das Labor seiner Satzung treu blieb oder der kommerziellen Gravitation folgte. Für Neulinge sind die Essentials einfach: Sam Altman wurde das Gesicht von OpenAIs Produktkadenz und Plattformambitionen (🔗), Musk baute und kaufte sich in die Schienen eines riesigen, stets aktiven öffentlichen Platzes ein, der jetzt X heißt (🔗; 🔗), und beide glaubten, dass, wer den täglichen Informationsfluss kontrolliert, definiert, wie Menschen mit und durch KI sprechen.

Harte Worte kamen vor den Klagen. Anfang 2023 begann Musk offen zu sagen, OpenAI sei zu geschlossen, zu sehr mit Big Tech ausgerichtet und zu weit vom Nonprofit-Ideal entfernt, das er einst unterstützt hatte. Altman hielt sich in Interviews ebenfalls nicht zurück. Die öffentlichen Sticheleien waren weniger wegen ihres Tons wichtig als wegen der Prognose darin: Beide signalisierten, wo die nächste entscheidende Produktoberfläche liegen würde. Es war nicht nur der Chatbot, den man mit einer Frage öffnete; es war der Feed, den man ohne Nachdenken scrollte — der Ort, wo Aufmerksamkeit standardmäßig lebt.

Die juristische Spur rastete 2024 ein. Musk reichte in Kalifornien Klage ein und argumentierte, OpenAI und seine Führung seien von der Gründungsmission abgewichen. OpenAI antwortete vor Gericht und in einem detaillierten Blogpost mit dem Titel ’OpenAI and Elon Musk’ und veröffentlichte zeitgleiche E-Mails, um zu belegen, dass Musk Jahre zuvor einen for-profit-Pfad unterstützt und sogar forciert hatte (🔗). Der Staatsfall wurde zurückgezogen, dann folgte eine breitere Bundesklage. Wie auch immer man die Schriftsätze liest, sie rahmten denselben Grundkonflikt: Wer darf sich im Wettlauf um die fähigsten Systeme auf das Gemeinwohl berufen.

Unterdessen ging das Produktrennen von Andeutungen zu ausgeliefertem Code über. Musk hatte xAI gegründet und Grok vorgestellt, ein Modell und Assistent, als frech, aber zunehmend fähig positioniert, mit einem bewusst heimischen Vorteil innerhalb von X. Von Anfang an signalisierte die Implementierung eine Strategie, den Assistenten in die Distribution zu verdrahten, statt Nutzer zu bitten, irgendwohin neu zu kommen. Wenn Grok dort postet und antwortet, wo Menschen bereits sind, hört der Assistent auf, Umweg zu sein, und wird Teil des Pflasters. xAIs Rollout-Notizen und Entwickler-Spuren, veröffentlicht 2023–2025, zeichneten einen Bogen vom Chatbot-Paneel zur engeren Anbindung an den Feed selbst nach (🔗; 🔗).

OpenAI antwortete auf einer anderen Achse: nicht durch Erwerb eines Sozialgraphs, sondern indem ChatGPT zu einem Ort wurde, an dem man verweilen kann. Der GPT-Store machte maßgeschneiderte Agenten auffindbar, was dem Unternehmen beibrachte, wie Menschen im Produkt browsen. Dann kamen mehr Personalisierungsfunktionen. 2025 begann OpenAI, eine neue Oberfläche zu präfigurieren — einen feed-ähnlichen, kartenbasierten Strom in der ChatGPT-App, umgangssprachlich als täglicher ’Pulse’ beschrieben, der zusammenträgt, was dir wichtig ist, und es promptlos präsentiert. Die Erfahrung zielte auf eine einfache Inversion: Der Assistent soll zu dir kommen, nicht umgekehrt. OpenAIs Blog und Produktnotizen skizzierten die Richtung und verbanden Chat-Gedächtnis, proaktive Recherche und ein scrollbares, visuelles Zuhause für Updates (🔗).

Als die Produkte reiften, schärfte sich die Rhetorik. Musks Posts warfen OpenAI Selbstbevorzugung und Missionsabweichung vor; Altman konterte mit knappen Repliken und teils persönlichen Charakterisierungen. Die Form dieser Austausche ergab im Kontext Sinn: Jede Seite beanspruchte nicht nur technischen Fortschritt, sondern das Recht, Normen und Defaults zu setzen. Wenn Grok X’ ’For You’-Feed promptbar machen könnte — stell dir vor, tippen, sprechen oder tippen, dann sieht die Timeline mehr zu Themen, Stimmen und Stilen, die du on the fly verlangst — hörte X auf, eine statische Ranking-Maschine zu sein, und würde zu einem Live-Gespräch zwischen Nutzer und Modell. Das veränderte nicht nur Auffindung; es veränderte Governance, weil Moderation, Empfehlung und Personalisierung in einer einzigen Interface-Stimme verschmelzen würden. xAIs öffentliche Posts teaserten diese Richtung immer wieder und schoben Grok im Lauf der Zeit tiefer in die Haupt-Timeline (🔗).

OpenAIs Antwort auf die promptbare Timeline hatte andere Mechanik, aber ähnliche Intention. Wenn die laufenden Chats eines Nutzers, gespeicherte Präferenzen und verbundene Tools in einen lebenden Strom aus Briefings übersetzt werden können — Recherche-Zusammenfassungen, Datei-Digests, kalenderbewusste Stupser, Medien-Rundups und frische Analysen — dann wird der Assistent zum Paperbot auf deiner Türschwelle jeden Morgen, nur dass die Route von deinen eigenen Anfragen und Aufgaben kartiert ist. Das Ziel war nicht, einen globalen Marktplatz neu zu bauen; es war, die Leerlaufmomente zu kolonisieren, die Nutzer ohnehin zwischen News-Apps, Newslettern und Dashboards verbringen. Indem dieser Strom mit Alltagssprache steuerbar wird, schlug OpenAI faktisch einen Feed vor, der weniger davon lebt, wem du folgst, und mehr davon, was du zu tun versuchst. Das ist ein tiefer Differenzpunkt und zeigt sich darin, wie OpenAI in seinen offiziellen Materialien über Sicherheit, Provenienz und die Grenzen der Automatisierung spricht (🔗).

Der juristische Faden zog sich 2025 wieder an mit einer neuen Klage von Musks xAI gegen OpenAI, die missbräuchliche Nutzung vertrauten Know-hows über Mitarbeiterbewegungen behauptete. Diese Eingabe lief parallel zur längeren Bundesklage über OpenAIs Mission. Unabhängig vom Ausgang wirkten die Klagen wie Gerüste um die öffentliche Erzählung: Sie hielten die Story vertikal, garantierten, dass neue Dokumente und Erklärungen auftauchen, und boten einen formalen Austragungsort für Argumente, die sonst nur als spitze Posts abrollen würden. Für Neulinge ist zu verstehen: Gerichtssaal und Timeline verstärkten dieselbe zentrale Frage: Wer kann am überzeugendsten darlegen, dass sein Weg zum Feed auch der Weg zu einem gesünderen Informationsökosystem ist.

Ende 2025 zielten beide Wege auf eine promptbare Timeline, doch die Layouts unterschieden sich. Auf X verankerte sich der Plan am Sozialgraphen und am Firehose: Du sagst Grok, was du bevorzugst, und die Timeline passt sich in Echtzeit an. Erfolgsmetriken sehen aus wie Verweildauer, Reshares und Zufriedenheit mit dem, was der Feed nach einer Bitte zurückliefert. In ChatGPT verankerte sich der Plan an Intention und Arbeit: Du erlaubst dem Assistenten, aus deiner Aktivität und Verbindungen zu lernen, und er komponiert ein tägliches Briefing, das du dann mit natürlicher Sprache verfeinerst. Erfolgsmetriken sehen aus wie reduzierte Kontextwechsel, erhöhte Aufgabenerledigung und Vertrauen in Zitationen und Zusammenfassungen, die die Karten speisen. Klar gesagt: Der eine erfindet einen öffentlichen Platz durch eine KI-Linse neu; der andere erfindet eine persönliche Zeitung durch eine Aufgaben-Linse neu.

Der menschliche Teil — die Worte, die auf beiden Seiten stachen — schwebte nie frei von diesen Produktwahlen. Als Musk OpenAI als zu geschlossen rügte, war das auch ein Weg zu sagen, dass ein Assistent, gebunden an eine proprietäre App und Partnerschaften, die spontane, chaotische Öffentlichkeit niemals so gut bedienen könne wie ein plattform-nativer, in der Timeline lebender Modell-Agent. Als Altman knapp und schneidend antwortete, war das auch ein Weg zu sagen, dass eine auf Viralität getrimmte KI die Linie zwischen Gespräch und Überzeugung verwischt und dass ein sicherheitsbewusster Assistent begrenzte, personalisierte Kontexte bevorzugen sollte, in denen Provenienz und Kontrollen klarer sind. Ihre Spitzen waren Behauptungen über Werte, die in Codepfade eingebettet sind.

Die Chronologie fädelt sich sauber, wenn man den Oberflächen folgt, nicht nur den Statements. OpenAIs Gründung und der spätere Governance-Pivot erzeugten Spannung über Mission und Kontrolle. Musks öffentliche Kritiken schärften sich zu Klagen, die Ursprungsgeschichten und Versprechen erneut verhandelten. xAI startete Grok und senkte es tiefer in X, bis die Idee einer promptbaren Timeline nicht mehr spekulativ klang. OpenAI, die Gravitation der Feeds im Blick, baute den ChatGPT-Homescreen zu einem kuratierten, proaktiven Strom um, den man in Alltagssprache steuern kann. In den Rändern — Interviews, Replies, Blogposts — stritten sie über Zweck, Offenheit und Macht. Die Paperbot/Paperboy-Metapher hält nur, weil man sie fühlt: Jeden Morgen will der eine Weg dir eine Stadtzeitung auf die Veranda werfen, die ein Gespräch mit der Stadt spiegelt; der andere will dir ein maßgeschneidertes Briefing liefern, das ein Gespräch mit dir selbst spiegelt. Beides wird promptbar sein. Beides wird beanspruchen, deine tägliche Titelseite zu sein.

Für Leser:innen, die kanonischen Kontext statt sozialer Schnipsel öffnen wollen, beginne mit dem institutionellen Bericht des OpenAI-Blogs zur Trennung von Musk (🔗), den breiteren Produktnotizen von OpenAI, die zeigen, wie sich eine passive Chatbox in eine proaktive Oberfläche wandelte (🔗), und xAIs Grok-Ankündigungen, die nachzeichnen, wie der Assistent Wurzeln in X’ Haupterfahrung schlug (🔗; 🔗). Diese Dokumente werden die Argumente nicht entscheiden, aber sie offenbaren die Produktlogik darunter — und diese Logik treibt die Feed Wars jetzt.

2 comments

Comments are closed.