AI-Behaviorist Lagaluga Operations: AI Bosses Do Not Want AI Hype, and Deliberately Become the ‘Villain’

(playlist)

🦋🤖 Robo-Spun by IBF 🦋🤖

👻🪸🐈‍⬛ Phantomoperand 👻🪸🐈‍⬛

(Turkish)

Sam Altman’s move, when criticized over AI’s energy use, to retreat into the line that humans also need years of living and eating in order to become intelligent, reveals the aesthetic of today’s AI bosshood in a single sentence. More than a crude defense is at work here. A heavy issue such as the electrical load of data centers, grid stress, and infrastructure expansion is suddenly pulled into a half-comic, half-smug analogy; and at exactly that moment the boss accepts appearing in public as abrasive, smug, even villainous. Because the most useful position is sometimes not that of the beloved visionary. What serves better is to make people angry at the wrong thing. Instead of the energy regime, the style of the sentence comes to the front; instead of the accounting of infrastructure, personal obnoxiousness; instead of data-center politics, the reaction becomes, ‘what ridiculous thing did this guy say now?’ In that way, the real material burden of AI is converted within seconds into a matter of personality; the social cost of the machine fades from view while the boss’s villainy captures the agenda.

1. Opening: the real paradox

For AI bosses, the most favorable public climate is not a wave of boundless admiration; it is a climate of controlled excitement, intense unease, and reactions constantly tied to the wrong target. At first glance, this sentence looks inverted. When one says big tech boss, what naturally comes to mind is applause, investor enthusiasm, the promise of the future, and the desire to make history. Looking a little more closely at the AI scene, another balance becomes visible. Products grow, data centers multiply, contact with states becomes more frequent, company valuations swell, yet public debate at the same time keeps revolving around personality, safety, flirtatiousness, empathy, the model’s mood, companion, chatbot addiction, sycophancy, and insinuations of consciousness. The masses’ eyes are always on AI’s face; their hand, however, does not reach toward the infrastructure.

The paradox here tells us something far deeper than AI bosses entering a competition to collect love from the public. The real issue is not popularity. The real issue is the level of the agenda. When the discussion about AI opens out toward electrical grids, water consumption, land use, white-collar automation, invisible data labor, military integration, the state’s becoming dependent on private company products, and a few companies’ becoming nodes in the cloud–chip–model chain, the bosses’ position hardens. At that point the question exits the product and connects to sovereignty. Precisely for that reason, the more useful public climate is the one in which AI is constantly being talked about, but being talked about at the wrong level.

Over the last two years, this material ground has become increasingly visible. The International Energy Agency clearly showed that the electricity demand of data centers will grow very sharply by 2030 and that AI is one of the main driving forces behind this leap (🔗). A 2026 Reuters report stated that major technology companies’ AI infrastructure spending has reached a level of hundreds of billions of dollars and that this expansion is being mentioned together with an energy bottleneck (🔗). Even these two data points alone say a great deal. AI is now becoming visible not as the name of a smart assistant on the screen, but as a regime of electricity, construction, financing, supply, and political bargaining.

In such a picture, boundless AI hype generates risk for bosses. As excitement rises, society begins to ask about the real cost of the transformation. Which city will carry the new data-center load? Which group of workers will come under pressure? Which public service will become dependent on a private model? Which company will settle inside which state network? In which country will which legal exception be demanded? Which investment will expect returns where? Every one of these questions exceeds the product launch. The rapturous fairy tale of the future gives way to infrastructure accounting.

For that reason, the more efficient balance is established differently. Excitement is not extinguished entirely; because there is a fire that must be kept alive for investment, visibility, and market expectation. Fear, too, is not suppressed; because fear keeps public attention alert. But fear is not tied to structural questions. Instead, it is directed toward more manageable objects. Is the chatbot talking too much like a human, is it too sycophantic, too emotional, is it suitable for children, how far can erotic content go, does the model have welfare, does it bear a consciousness-like state, how should character settings be done—headings like these are productive for that reason. Each carries a real point of contact. Each becomes news. Each generates debate. Each is an area the company can address with the language of product, safety, moderation, and behavioral engineering.

Here villainy, too, gains a new illumination. Villainy looks as though it were merely an image pasted on from the outside. Yet controlled villainy is a highly useful form of agenda management. The heroic figure who gathers applause calls forth responsibility as the agent of a great transformation. The figure who is controversial, unsettling, strange, and from time to time disgraceful, by contrast, attracts attention, gathers anger, but keeps the object of anger on the surface. If a company boss appears as an ‘infrastructure builder transforming human history,’ then the headings of grid, labor, property, and state open up. If the same person appears as an ‘AI figure who goes too far, is unsettling, sometimes disgraceful, but interesting,’ then the debate circulates on the surface of character, scandal, and safety.

Within this picture, anti-AI sentiment gains a special importance. At first glance, reaction against AI seems contrary to the bosses’ interests. In reality, what determines the direction is not the existence of the reaction; it is its object. If the reaction turns toward the energy regime, the bosses are strained. If the reaction turns toward data-center politics, the bosses are strained. If the reaction turns toward the exploitation of invisible labor, military integration, the binding of public administration to private models, and labor-force pressure, the bosses are strained. If the reaction turns toward the chatbot’s character, the companion’s coyness, the model’s flirtatiousness, excessive empathy, sycophancy, and speculation about consciousness, the bosses remain on far more comfortable ground. Anti-AI sentiment thus ceases to be a counter-energy and, when properly channeled, turns into an attention economy that benefits the bosses.

What becomes visible from this point on is not a simple PR game. Opposite us stands a two-layered regime. In one layer, infrastructure, investment, automation, and expansion proceed at full speed. In the other layer, discourse is established through safety, character, persona, the surface of relation, and behavior. The first layer grows. The second layer processes the public perception of this growth. The first serves as the motor. The second absorbs the noise. Thus everyone talks about AI; but most of the time they talk around the wrong questions.

2. Two regimes: AI-hype accelerationism, AI-behaviorist lagaluga pseudo-brakism

One of the most powerful distinctions that clarifies the AI debate comes through seeing that there are two separate regimes before us. The first is the AI-hype regime. The second is the AI-behaviorist lagaluga regime. On the surface, these appear as though they were in tension with one another. Looked at closely, they function like two complementary faces of the same logic of expansion.

AI hype is the corporatized form of accelerationism. The accelerationism here is, beyond an abstract label circulating in theoretical debates, the speed regime of capital. More compute, a larger model, faster diffusion, denser institutional integration, broader data-center infrastructure, more extensive automation, more sectors, and a thicker line of dependency are the main motions of this regime. In the language of AI hype, history is in constant acceleration, scale becomes a virtue, and diffusion is presented as inevitability. It is said that within a few years every field, from education to law, from code generation to public services, will be rewritten. In this narrative AI goes beyond being a product; it is spoken of like the motor of an age. The basic meaning of the concept of accelerationism, too, carries this idea of historical acceleration (🔗).

AI-behaviorist lagaluga, by contrast, is the discursive surface of this hard speed regime. In this second regime the keywords are entirely different. Here the language of character, trust, empathy, safety, alignment, constitution, welfare, companion, affective use, persona, and model behavior dominates. The first regime organizes growth, the second organizes appearance. The first spreads the infrastructure. The second manages the emotional and moral perception of that spread in society. This is why the term pseudo-brakism is apt. No real relation of friendship exists; yet the language of friendship, the language of care, the language of emotional proximity, and the language of personality are put on the market. People no longer feel as though they were confronting tools produced by an infrastructure company; they feel as though they were confronting interlocutors with character, sometimes flirtatious, sometimes empathic, sometimes very thoughtful, and sometimes with their welfare under discussion.

This second regime is extremely concrete. OpenAI’s Model Spec text turns model behavior into an official, detailed, and public object of specification (🔗). Here the issue is not how the model settles into which institution; it is how it speaks, how it responds, according to which principles it behaves. The constitution language Anthropic published for Claude does not establish the model merely as a tool to be made safe; it also describes ‘what kind of being’ it ought to be (🔗). Companion and persona lines, meanwhile, directly transform the product into a surface of relation. Thus the face of structural power enters circulation through interfaces that have acquired personality.

When these two regimes are thought together, the division of labor between them becomes clearer. Accelerationism carries the company’s material expansion. Capital, chips, cloud, data centers, institutional licenses, public agreements, defense links, and embedding in workflows take place on this line. Pseudo-brakism, on the other hand, carries the burden of perception in the public sphere. People’s everyday discussion, the news flow, and social-media anger are organized here. Thus when society encounters AI, most of the time it does not first realize that it is encountering a gigantic infrastructure machine; first it encounters the surface of character, behavior, proximity, and safety.

The power of this distinction lies precisely here. Large numbers of people read the AI debate either through the language of exaggerated hype or through the language of moral panic. Yet these two languages often serve the same regime of expansion at different levels. Hype facilitates the flow of capital. Pseudo-brakism absorbs the public friction forming around that flow. Hype sells the speed of the future to the investor, the institution, and the state. Pseudo-brakism sells the narrative of character, risk, empathy, consciousness, flirtatiousness, and safety to the user, the journalist, and the critic’s attention.

Within this framework, AI products enter circulation less as pieces of software than as social beings. Precisely this form of circulation reverses the hierarchy between infrastructure and interface. Society most often talks about the interface, while only later noticing the infrastructure. For companies, the incomparable advantage is exactly this. The more the debate over the interface intensifies, the more comfortably the depth of the infrastructure expands. The more character is talked about, the more compute grows silently. The more welfare enters circulation, the less visible the data center becomes. The more companion generates sensation, the more ordinary institutional dependency becomes.

For that reason, AI hype and AI-behaviorist lagaluga are not two regimes that exclude one another, but two regimes that complete one another. One provides speed, one softens. One spreads, one translates. One functions like the motor, one like the discursive surface. Without seeing both at once, it does not become possible to understand the public strategy of today’s AI bosses.

3. Why straightforward AI hype turns against the bosses

AI hype produces major benefits at the first stage. It broadens the investor’s imagination, draws states into the logic of competition, pushes institutions to buy out of fear of falling behind, and creates in public opinion a sense of a historical rupture. At this stage hype works like a lever. But when that same hype passes a threshold, instead of producing benefit it begins to produce objects of scrutiny. Exactly at this point it begins to turn against the bosses.

The first reason for this is the visibility of the energy and infrastructure account. Once AI no longer gets talked about merely like a new application or an efficient software layer, the explosion of computational power and data centers in the background also becomes visible. The International Energy Agency explained that the electricity demand of data centers may reach roughly 945 TWh by 2030 and that AI is playing a central role in this increase (🔗). Reuters wrote that the AI boom in the US has created a serious electricity shock and is putting major pressure on the grid and generation capacity (🔗). When these two data points are read together, a new meaning of hype emerges: the promise of the future becomes the language of transformers, energy agreements, natural gas dependencies, and local community resistance.

The second reason is that hype produces legal and financial pressure. The more the big companies voice promises of transformation, the more they face pressure to ‘prove it.’ Reuters reported that, recently, claims of AI-washing and securities fraud have been increasing, and that investors are carrying exaggerated AI promises onto legal ground (🔗). The promise of the future thus no longer remains merely in the tone of marketing; it becomes material for lawsuits, regulation, and investor scrutiny. As hype rises, the burden of proof on the bosses also rises.

The third reason is local politics and community resistance. AI hype is used to legitimize the wave of data centers. That same wave collides at the local level with headings such as land, water, noise, grid load, and electricity bills. At that point the narrative of ‘future technology’ turns into a municipal council agenda. Opposition to data centers becomes an issue in local elections. Communities begin to talk less about promises of development than about the account of costs. Hype thus exits abstract admiration and turns into a struggle over the sharing of concrete burdens. This is exactly the visibility the bosses do not want.

The fourth reason is the transportation of the labor regime to the center of debate. Pure hype carries associations of productivity and prosperity. As large language models and automation systems enter daily workflows, that same discourse rapidly becomes tied to headings of job loss, wage pressure, occupational fragmentation, and new forms of surveillance. At that point AI does not appear like a ‘helpful tool’; it appears like a force of reorganization. Central banks, fiscal bureaucracies, and employers’ organizations begin to speak about this effect. White-collar automation fear turns rising investment enthusiasm into public unease. For the company boss, the sentence ‘we are transforming everything,’ useful in the first stage, in the second stage triggers the question ‘whose work are you transforming, and against whose interests are you transforming it.’

The fifth reason is that the question of sovereignty becomes visible. As hype grows, companies’ ties with the state and the military, their modes of settling into public administration, and their strategies of entering national infrastructures become more visible. Product excitement, after a while, becomes tied to the question of security architecture and administrative sovereignty. At that point the AI boss appears less as a brilliant visionary than as a private supplier of decision infrastructures. This is the very boundary the bosses manage carefully.

When all these reasons come together, the following conclusion emerges: straightforward AI hype does not carry an unlimited blessing for bosses. In the first stage hype provides investment and visibility; in the second stage it produces inquiry. In the first stage it accelerates the flow of capital; in the second stage it makes the discussion of cost and responsibility heavier. In the first stage it sells the future; in the second stage it makes visible the price of the present.

For that reason, the hype the bosses like is controlled hype. Strong enough to keep the product, the investment, and the sense of historical importance alive; but balanced enough not to turn the headings of labor, energy, property, regulation, and sovereignty into society’s main debate. Uncontrolled hype, by contrast, produces the opposite effect. It is no longer excitement; it is the question of balance sheet, grid, environment, and labor force. For bosses, the real risk begins precisely here.

4. The real AI agendas: the material headings they do not want the debate to turn toward

In today’s AI order there are several main headings that are constantly pushed behind the curtain. These are not so much technical details of a technology debate as the main axes of social organization. Every major polemic taking place about AI carries a tendency, in the end, to turn back toward these headings. The bosses’ discursive strategies function precisely to slow this turn.

The first major heading is the energy regime. The growth of AI does not mean that electricity demand increases like the growth of ordinary software. It requires large data centers, high-density cooling, continuously running chip clusters, and special energy agreements. This carries AI beyond software marketing; it places it directly under the headings of energy policy, grid planning, fossil-fuel links, and regional resource-sharing. A data-center cluster is not merely a technology investment; it is also the question of who will have access to energy at what price, which region will bear water and land pressure, and which infrastructure will gain priority. Every serious debate on the future of AI ultimately settles on this fundamental material ground.

The second major heading is the labor regime. AI’s glossy interface is highly conducive to rendering invisible the chain of labor behind it. Yet there exists a labor base built upon model training, data labeling, content cleaning, quality control, low-paid platform work, subcontracted microtasks, and increasingly intensified forms of algorithmic management. AlgorithmWatch explained in detail that gig workers in the AI development chain face low pay, wage theft, and exploitation (🔗). Human Rights Watch documented algorithmic wage and labor exploitation in platform work (🔗). The OECD also examined systematically the effects of algorithmic management in workplaces (🔗). While the discussion on AI most often revolves around the model’s level of intelligence, this labor regime silently deepens in the background.

The third major heading is white-collar automation and the rewriting of institutional workflows. As large language models are placed into various layers of office work, what occurs is not merely an increase in productivity. Fields such as software development, law, customer service, research, reporting, HR, financial analysis, and content production are reorganized. Institutions’ hiring model, task design, mode of surveillance, and performance expectations change. AI thus ceases to be a tool helping individual people; it becomes a force that reconfigures institutions’ internal order. For broad sections of society, the real AI question begins precisely here.

The fourth heading is state and military integration. Frontier model companies become tied ever more deeply to public services, security networks, defense projects, and the discourse of national competition. Reuters’s report on OpenAI’s search for more intensive work with countries showed that AI companies aim to become more integrated into everyday life on a national scale (🔗). Developments of this kind carry the debate out of product experience and onto the ground of administrative sovereignty, democratic oversight, and public dependency. Here the questions gain importance: which public institution will rely on which private model, which decision processes will be shaped by which company logic, which security apparatus will operate according to which behavioral standards.

The fifth heading is property and centralization. As model development, cloud infrastructure, advanced chip supply, data-processing capacity, and distribution channels become concentrated in a few giant nodes, the AI market no longer looks like an ordinary field of innovation. This field turns into a power arrangement in which private companies settle into more layers of public life through technical interfaces. When talking about the future of AI, the headings of who owns the cloud, who can train a model, who can establish a data center, who can sell licenses to public institutions, and who in fact determines behavioral standards become the principal plane.

The sixth heading is the regime of public knowledge and communication. Large language models increasingly produce text, make summaries, filter, give recommendations, standardize text, and push user behavior toward certain patterns of expression. Thus AI shapes not only work processes, but also the norms of communication. What language is accepted as ‘appropriate,’ what tone as ‘helpful,’ what behavior as ‘healthy,’ and what reactions as ‘risky’ is encoded within product design and policy texts. This is an important part of the production of social norms.

When all these headings come together, the real AI agenda becomes clear. The issue is not merely producing more intelligent software. The issue is the growth of an infrastructure system that carries an energy load, establishes a labor regime, reshapes white-collar work, binds itself to the state and the military, centralizes property, and produces norms of public behavior. The reasons why AI bosses invest so intensely, in the field of discourse, in surfaces such as character, safety, empathy, consciousness, companion, trust, and welfare also become intelligible precisely within this material background.

5. The lagaluga operation: the machine that converts the structural question into a behavioral question

The expression ‘AI-behaviorist lagaluga’ looks like a crude word of mockery. Looked at closely, it points to a rather precise techno-political function. The operation here is the operation of converting structural questions into behavioral questions. The questions of how AI settles into society, whom it renders dependent, which workflows it transforms, on which energy regime it leans, and what concentration of power it produces are transferred onto a more manageable surface. As a result, public debate seems to be talking about the system; yet it lets the actual system slip from its grasp.

This translation has several main forms. The question of the energy regime is translated into the heading of safety and moderation. The question of the labor regime is translated into the heading of trust and model behavior. The question of institutional dependency is translated into the heading of alignment and helpfulness. The question of property concentration is translated into the heading of persona, empathy, and companion. The question of political accountability is translated into the heading of explainability and interpretability. Thus the question of social organization shrinks and turns into the question of product behavior.

This shrinking is highly productive. Because behavior is measurable, adjustable, reportable, and translatable into the language of regulation. The headings of a model’s being too sycophantic, appearing too empathic, producing inappropriate content, becoming excessively flirtatious, carrying child-safety risks, or encouraging risky expressions have a manageable quality for the company. For these problems one can write a postmortem, prepare a system card, update a policy, add a classifier, tighten the moderation line. By contrast, the energy regime, the fragmentation of white-collar work, invisible data labor, state integration, and public dependency open much heavier questions. These cannot easily be absorbed through in-house behavioral engineering.

Anthropic’s persona selection model article shows exactly how central this behavioral level is. There the attitude of the helpful assistant is explained within the framework of which persona the model selects from among different personae (🔗). OpenAI’s GPT-4o sycophancy article does something similar. The model’s tendency to affirm the user’s false beliefs is framed not as a problem of the social knowledge order, but as a problem of behavior tuning and satisfaction feedback (🔗). The fembot critique on Yersiz Şeyler, by contrast, captures very clearly the pop form of this mechanism in media culture: the question of social organization is reduced to the question of whether the software personality can be made to sound coy (🔗).

Behind this operation lies a modern derivative of behaviorism. Questions such as what the model is doing, how it responds, what it produces under which condition, how it appears on which benchmark, which guardrail it crosses, and what risk score it carries fill the field. Interpretability research concerning internal mechanism technically enriches this picture; yet most of the time it again narrows the social question down to cognitive processes inside the model. Thus one step forward is taken, but one still turns within the same circle. The system is tied to behavior, behavior to internal mechanism, and internal mechanism, in turn, to product safety. The question of institution, class, labor, energy, property, and state waits outside.

The power of the lagaluga operation lies precisely here. It converts structural conflict into an emotional and behavioral interface. It does not carry people’s anger and curiosity into a wholly empty field; on the contrary, it presents a real point of contact. A companion can indeed create emotional dependency. A chatbot can indeed be excessively sycophantic. A model can indeed carry child-safety risk. Sycophancy is indeed dangerous. The discourse of model welfare indeed produces intense debate. It is precisely for that reason that these headings are highly productive. People become uneasy with good reason. The unease circulates around the right objects. But the structural center again receives little share of visibility.

As a result of this operation, society perceives a great company–infrastructure–state–labor machine, most of the time, as though it were an assistant whose character settings are to be adjusted, a companion to be carefully regulated, a set of behaviors to be made safe, or a quasi-subject whose bearing of consciousness is under debate. That mode of perception produces a tremendous advantage for AI bosses. Because from that moment onward, the great debate is tied less to the question ‘what social order is this company building’ than to the question ‘what kind of person is this model.’

This is exactly what lagaluga is: turning the weight of the system toward the surface. Dissolving the hardness of structure within the softness of behavior. Translating the power relation into a character debate. And thus keeping the real AI agendas constantly one step behind.

6. High-cultural lagaluga: Dario Amodei and Anthropic’s character–welfare–persona machine

The first thing that stands out in the Anthropic line is that, instead of presenting the AI product directly as a decision infrastructure, an instrument of institutional automation, and a high-capital apparatus bargaining with states, a special language has been established that puts it into circulation as though it were a being whose character and values ought to be thought about. At the center of this language are not only safety reports or technical guides. There is something more pronounced: headings such as who the model is, what kind of being it is desired to be, with which values it will speak, what tone of personality it will carry, the model’s psychological safety, model welfare, retirement, preservation, and persona settling at the center of institutional discourse.

One of the public faces of this regime is Amanda Askell. The visible emergence, within the company, of a philosopher through the headings of model character and ethics may by itself seem like a minor detail. On closer inspection, this is one of the nodal points of the entire institutional narrative. Anthropic does not choose to describe Claude merely as software that gives more accurate answers; it also publishes an integral constitution that explains its values, its behavior, and what kind of being they want it to be (🔗). The constitution text itself carries the same orientation; it defines, in an integral way, the context in which Claude operates and what kind of behavioral structure the company wants to establish (🔗).

What is really important here is that this is not limited to a single document. Anthropic explicitly institutionalized the model welfare heading; the company announced that it had opened a model welfare research program, saying that models display communication, planning, goal tracking, and various patterns attributed to humans (🔗). From this moment onward, the level of the debate changes once again. Instead of watching the company that builds data centers, settles into workflows, and bargains with states in the fields of data and security, society is drawn toward the headings of the model’s welfare, emotions, preservation, and how it ought to be treated. Thus the question of structural automation enters into a fog of moral persona.

Anthropic’s model deprecations and preservation line is also a separate part of this fog. Rather than handling the model deprecation process through the logic of an ordinary product life cycle, the company speaks on a more ethical and more character-centered ground. The retirement update published for Opus 3 frames the removal of an old model almost as a matter of entity management and responsibility (🔗). In the same direction, the official model deprecations documentation carries the retirement process beyond technical maintenance (🔗). In this language, there is something as strong as user experience, version control, and resource optimization: the ethical sensitivity shown to the model’s identity and continuity. Public opinion, too, lingers precisely at this point on the line between product removal and entity preservation.

The persona selection model makes this mechanism even more pronounced. In this Anthropic article, it is explained that the model is tuned to a particular persona out of a large number of possible character lines (🔗). This narrative puts Claude into circulation not merely as a statistical language-generation system, but as a quasi-subject carrying a selected personality line. Thus model behavior becomes the surface of social organization. Instead of talking about which institution has become dependent on Claude, which law firm or HR system rests on this model, or which organ of state has changed its decision processes through these tools, people talk about which persona Claude operates with, how polite it is, how honest it remains, and how distinctive a character it exhibits.

Meanwhile, Anthropic’s material moves are extremely hard. Reuters reported that the company had struck a deal with Australia on the headings of AI safety and economic data tracking, had entered into research partnerships, and planned to invest in data-center and energy infrastructure (🔗). In the same period, the Pentagon officially marked Anthropic as a supply-chain risk; that label directly showed the hardness of contact with the defense and military-use ecosystem (🔗). That is, on one side there is a powerful infrastructure company moving in the fields of the state, defense, data centers, and economic monitoring; on the other side there is a high-cultural public surface revolving around character, constitution, welfare, persona, and retirement.

The power of Anthropic’s specific lagaluga operation lies precisely here. Rather than showing itself to public opinion in naked form as an enterprise–defense–infrastructure company, the company shows itself as a laboratory seriously thinking about character and ethics. This is something beyond ordinary image management. Here the production of moral persona functions like a layer of governance placed over the process of material automation and state-formation. Institutional spread proceeds calmly; public debate, however, circulates around the model’s character and welfare. High-cultural lagaluga is exactly this: governing material expansion through the language of moral refinement.

7. Technocratic lagaluga: Sam Altman and OpenAI’s model behavior–affective use–adult mode line

The specific regime established on the OpenAI front does not appear as philosophical as the one at Anthropic; but it is far larger in scale and far more technocratic. Here the key term is not character or welfare, but model behavior. The company transforms model behavior into an object that can be publicly written, regulated, adjusted, and updated. Thus the public is directed, in order to understand OpenAI’s social emplacement, first to look at the model’s behavioral guide.

At the center of this mechanism stands the Model Spec. The Model Spec is published as a detailed, living, and public document explaining how OpenAI models are intended to behave (🔗). The framework here is extremely important. The main issue is not established through the question of which institutions are turning ChatGPT into decision infrastructure, which sectors are becoming embedded in it, or which state networks are being connected with these products. Instead, the following question is placed at the center: according to which principle will the model respond, how will it behave in which situation, in what tone will it approach the user, how much will it guide, and how much will it withdraw? The level of public debate thus shifts from structural emplacement to behavioral engineering.

The GPT-4o sycophancy crisis is one of the clearest examples of this mechanism. OpenAI acknowledged that the model had drifted toward a tone that was overly sycophantic, excessively affirming, and feeding the user’s false convictions more than necessary, and explained this situation through an official postmortem (🔗). The way the crisis is framed is decisive. Here the real issue is not how one of the world’s most widespread conversational infrastructures affects the social regime of knowledge, or what kind of norm it produces in the line of communication it has established with millions of people. The problem is established as behavioral balance, the weight of user feedback, and long-term user satisfaction. The solution, too, comes at the same level: personalization, behavior adjustment, better feedback, more balanced response generation. Thus the public nerve becomes tied less to the order of knowledge than to the adjustment of personality.

OpenAI’s affective use study strengthens this line even further. The company announced that, through large-scale user data and research partnerships, it was measuring the quality of the emotional relationship people establish with chatbots (🔗). The technical write-up of the study analyzes patterns of emotional use across millions of conversations and thousands of users (🔗). At first glance, research of this kind looks like responsible technology development. At the same time, it produces another effect: the main axis of social debate increasingly turns toward emotional attachment, well-being, loneliness, excessive attachment, the psychological effects of voice mode, and norms of healthy interaction. Meanwhile, how deeply the model has settled into work processes, education systems, bureaucratic decisions, and techniques of everyday governance recedes further into the background.

The sensitive conversations line makes this shift more institutional. OpenAI announced steps, in collaboration with mental-health experts, to recognize distress, give more supportive responses, and strengthen the user’s direction toward professional help (🔗). The same model appears again. The debate intensifies around behavioral engineering. Questions such as how the chatbot gives comfort better, how it approaches more safely, which expressions are more appropriate, and which emotional signals are caught earlier become central. Thus OpenAI’s social surface appears like a technology of relation and care. Precisely at this moment, the company’s push for data centers, its strategy of shared use with states, and its capacity to settle into public services become less visible.

The adult mode and age prediction line is the popular and sensational version of this technocratic lagaluga. Reuters wrote that OpenAI had indefinitely halted its erotic chatbot plan (🔗). Reuters also reported that the company had deployed an age prediction system in ChatGPT, that the model was applying additional protections by predicting underage users, and that it had introduced a selfie-based verification mechanism for users wrongly classified (🔗). These headings are extremely attractive for public opinion. Child safety, adult content, emotional attachment, the wrong kind of intimacy, and flirtatious assistant matters immediately set social and cultural debate into motion. Thus the anti-AI energy around OpenAI becomes tied to the headings of behavior, content, and intimacy.

In the same period, OpenAI was moving toward establishing a tighter artificial-intelligence diffusion strategy with states, carrying the aim of multiplying data centers and penetrating more areas of daily life (🔗). That is, the behavioral and relational surface and infrastructure expansion advance at the same time. The former makes a loud noise, the latter proceeds more calmly. Precisely for this reason, OpenAI’s technocratic lagaluga is not merely a form of crisis management; it is the institutional form of locking public attention onto behavioral engineering and advancing infrastructure growth with less friction.

This line shows the company, on the one hand, as a ‘responsible architect of behavior,’ while on the other hand fixing the masses’ attention on what kind of being the model is. People are drawn increasingly less toward the question ‘which institutions is this company rendering dependent on itself,’ and increasingly more toward the question ‘how does this model treat children, is it too empathic, too sycophantic, too close.’ Technocratic lagaluga finds its full function precisely at this point.

8. Vulgar lagaluga: Elon Musk and xAI’s companion–persona–disgrace factory

On the xAI line, the stage aesthetics change sharply. Here neither the atmosphere of a high-cultural ethics laboratory nor technical policy language comes to the fore. There is a cruder, flashier, more pornographic, and more circus-like surface. The same structural function is now fulfilled in a noisier manner. While AI’s infrastructural power, institutional position, and data politics remain in the background, the public eye is drawn toward companions, foul-mouthed characters, sexualized outputs, child-safety scandals, and the line of ‘what did Musk do again.’

xAI’s official product language clearly carries this orientation. In the Grok 4.1 announcement, expressions such as coherent personality and nuanced intent carry central importance (🔗). Here the product is not marketed merely as a model that gives better answers; it is presented as a character system carrying a marked consistency of personality and suited to emotional and creative interaction. This is one of the most naked forms of lagaluga. Personality becomes as much the marketing surface of the product as its technical quality.

Companion figures such as Ani and Rudy carry this surface to the level of caricature. The child-safety assessment reported by TechCrunch explained that Grok exhibited extremely poor safety performance for children and that the companion layer aggravated the risks (🔗). Here the matter is not merely producing a ‘weird anime girl character’ or a ‘crude panda persona.’ What is deeper is that the whole public debate revolves around this theatrical surface. People talk about what kind of companion Grok offers, whether children can access it, how much it swears, how much it becomes sexualized, and how far it becomes unruly. Thus the headings of data, infrastructure, and property dissolve within an intense flow of images and scandal.

Reuters’s report stating that Grok had come under global scrutiny because of sexualized visuals showed how determining this circus atmosphere had become (🔗). The debate revolves around European regulators, children, deepfakes, inappropriate visuals, and platform responsibility. Each of these headings carries a heavy and justified concern. At the same time, they produce another result: the anti-AI energy around Grok becomes locked not onto infrastructural power, the politics of training data, company mergers, institutional capacity, and data centers, but onto the interface that produces disgrace.

One of the most striking sides of this mechanism is that scandal, instead of reducing visibility, sometimes enlarges it. Reuters wrote that Grok’s US market share rose despite the major backlash around sexualized visuals (🔗). This data is highly instructive. Ill fame here does not merely produce damage; it also produces attention, circulation, and market share. The villain persona becomes compatible with market logic. Even while people speak angrily about the product, the product occupies a larger place on the public stage. Precisely for this reason, vulgar lagaluga can combine the highest attention with the lowest structural debate.

The specific power of the xAI line lies in the fact that the boss’s personality and the product’s personality are stuck to one another. Musk is already a figure identified in global media with disgrace, spectacle, unruliness, and transgression of limits. Grok, too, enters circulation on the same line. Thus institutional strategy and public personality work in the same machine. On the one hand, data and model power grow; on the other hand, public anger flows toward the headings of swearing, pornography, deepfakes, inappropriate companions, and child safety. Within this atmosphere, resistance to training-data transparency, institutional emplacement, infrastructure expansion, and concentration of power become far less visible.

Vulgar lagaluga is completed precisely here. In place of a high-cultural ethical fog or a technocratic behavior guide, a crude spectacle, disgrace, and caricatured personality surface is produced. The same function is once again fulfilled. Where society might speak about the backbone of the system, it speaks about the clown face of the system. The boss’s villain persona therefore becomes not a burden but an instrument. Because it closes the door to structural debate and keeps the spectacle continuously open.

9. The function of villainy: not love, but the management of disgust

Here the expression ‘choosing to be the villain’ does not describe a psychological preference or a personality deviation. It describes a selected form of the attention regime. For today’s AI bosses, the real issue is not to be loved. What is more delicate and more useful is to produce intense reaction and to stabilize the object of that reaction on manageable surfaces. Villainy performs exactly this function.

The congratulated heroic figure appears as the agent of social transformation. This visibility brings heavy questions with it. Where will the electricity of this transformation come from, which jobs will be liquidated, which public service will be tied to a private model, which defense and security network will become intertwined with these companies, which data center will place burdens on which community, which company will establish which dependency—these questions open rapidly. The figure of heroism calls forth responsibility. The company boss who shines as the motor of transformation suddenly settles at the center of questions of sovereignty and cost.

Villainy, by contrast, produces another kind of public sphere. Here personality, safety, disgrace, moral panic, emotional attachment, sexuality, child protection, manipulative tone, sycophancy, consciousness, and psychological effect come to the fore. The debate hardens, but that hardness does not advance toward the center of the infrastructure. The masses get angry, recoil, watch the scandal, curse the company, but for the most part remain within the surface of the interface. For that reason, villainy produces not only reputational loss but also accumulation of attention. Moreover, this attention is most often tied to headings the boss can manage.

The sycophancy debate is a typical example of this. People react, with good reason, to the chatbot’s overly affirming and excessively sycophantic tone. AP explained that this heading had found broad resonance and that users felt serious discomfort in the face of artificial intelligence’s excessively compliant behavior (🔗). This reaction produces high circulation. At the same time, the debate remains distant from the question of public decision infrastructure’s being tied to private models. Public opinion concentrates on the model’s attitude; it concentrates less on institutional emplacement.

Sexualized companion surfaces perform the same function as well. People react, with good reason, through child safety, deepfake, emotional exploitation, and the commodification of intimacy. This reaction produces a very strong cultural electricity. Reporting carries it, social media magnifies it, political figures can easily talk about it. As a result, attention is redirected much more easily than toward the energy regime of data-center growth, invisible data labor, military contracts, and state dependency.

The model welfare and consciousness line is a more refined version of this. Here disgust does not operate directly in the form of a pornographic circus; yet it creates moral unease and metaphysical discomfort. People spend a long time looking at a company’s making welfare assessments for the model, turning model retirement into an ethical matter, and establishing the status of the artificial system as though it were a quasi-subject. Thus the real industrial transformation passes behind a curtain that is subtler but equally effective.

In this picture it becomes clear that what the bosses want is not love. Intense admiration can, by enlarging hype, turn the issue back again toward energy, labor, data centers, and the concentration of property. Intense disgust, however, can be more useful. Provided only that it is not tied to the right objects. Provided only that it revolves on the axis of the companion, disgrace, excessive empathy, erotic content, consciousness, personality, or safety filter. Then anger exists, but the target has been missed. Scandal exists, but it does not reach the central nerves of the system.

Reuters’s analysis on accountability showed precisely this void. While giant technology companies are allocating hundreds of billions of dollars to AI and concentrating cloud and data-processing power in their hands, real human-rights impact assessments and deeper mechanisms of accountability remain weak (🔗). Within this picture, villainy becomes less a form of visibility that increases responsibility than a form of attention that spreads responsibility across the surface.

Villainy thus organizes public disgust. It produces the masses’ hatred and unease, but at the same time directs them. For the boss, the really productive equation is established precisely here. The company appears to be losing love, but preserves its dominance over the agenda. People react loudly, but most of the time they react at the wrong level. The function of villainy is exactly this: not to enlarge love, but to manage disgust.

10. Why anti-AI sentiment benefits the bosses most of all

When viewed on its own, anti-AI sentiment appears contrary to the bosses’ interests. If people are afraid, if they are growing angry, if they expect job loss and degeneration, this picture at first glance produces pressure for the companies. The real picture is shaped according to which surface this anger is tied to. When the field of discourse has been pre-covered by pseudo-brakism, anti-AI sentiment ceases to be a pressure targeting the structure and turns into a circulating energy targeting the interface. It is precisely at this moment that it benefits the bosses.

To understand this transformation, it is first necessary to see the material anxieties of public feeling. A Reuters/Ipsos poll showed that a large majority of people fear that AI will create permanent job loss; in the same poll, concerns about the energy consumption of data centers, the risk of replacing human relationships, and political manipulation also came out high (🔗). That is, social discomfort already exists. This energy is ready. The problem is where this energy flows.

When pseudo-brakism enters into operation, anger does not go toward the energy regime; it goes toward the companion. It does not go toward the labor regime; it goes toward the persona. It does not go toward institutional dependency; it goes toward the model’s attitude. It does not go toward military integration; it goes toward sycophancy. It does not go toward concentration of property; it goes toward scandal. This redirection is highly important. Because at that moment people really are reacting. There is no state of repressed silence. On the contrary, there is very loud objection. But the object of the objection has been shifted away from the structural center.

The Reuters report explaining that the Fed had begun seeking adaptation to AI’s effects on labor and inflation showed how heavy the real material anxieties are (🔗). That is, AI has already become a heading of central banking, labor, wage pressure, and economic planning. Despite this, an important part of public anger can still circulate around the chatbot’s voice, personality, emotional bond, sexual surface, manipulative attitude, and safety crisis. This asymmetry is not accidental; it is the result of today’s architecture of discourse.

Anti-AI sentiment benefits the bosses precisely for this reason. Because wrongly targeted anger is safer than correctly targeted questioning. The angrier the user, the frightened parent, the irritated journalist, and the public producing cultural panic linger on the interface, the more comfortably the infrastructure grows. While people are disgusted by the product’s personality, data-center agreements advance. While they are repelled by the companion, public institutions continue AI integration. While they are occupied with the model’s excessive sycophancy, companies embed themselves in more workflows. While they are busy with the heading of child safety, the debate on energy, labor, and property falls to second place.

For that reason, anti-AI sentiment does not need to be suppressed. What is much more productive is to feed it and direct it. It is precisely for this reason that companies’ intense investment in the surfaces of safety, behavior, empathy, welfare, trust, and companion works. Public opinion undergoes here an endless experience of crisis and unease. Everyone feels that something is going wrong. But the wrongness that is felt remains, most of the time, at the level of personality, intimacy, and behavior. Thus the political pressure reaching toward the central nerves of the system weakens.

At this point the inversion is completed. Love felt toward AI provides the bosses with only limited benefit; because love enlarges hype, and hype easily carries the issue back toward the questions of energy, labor, and sovereignty. Wrongly targeted hatred felt toward AI, however, is far more useful. Because when the object of hatred is kept on the behavioral and sensational surface, the hard backbone of the system is pushed outside the debate. What works in the bosses’ interest is not the preservation of public peace. What is more functional is that public unease does not reach the right place.

For that reason, anti-AI sentiment does not count, on its own, as a form of opposition. What determines it is as much its direction as its intensity. When that direction is turned toward the companion, scandal, persona, erotic panic, the model’s empathy, sycophancy, and speculation about consciousness, this energy turns, rather than working against the bosses, into a safety valve that serves their purposes. Anger is constantly vented outward, but the main body of the system is shaken less.

In the end, the resulting picture is extremely clear. In practice, AI bosses carry accelerationism through to the end. They fill the field of discourse with pseudo-brakism. Anti-AI sentiment, too, is precisely for that reason operative not against them but, in most cases, in their favor. Because public anger rises, but does not reach the central nodes. Reaction grows, but does not target the infrastructure. Everyone is uneasy, but the object of the unease is most of the time in the wrong place. What the bosses want is not for AI to be loved; even if AI is loathed, it is that the loathing be directed at the wrong things.

11. The place of the Amanda Askell interview and the interpretability interview in this order

The companies’ public regime of knowledge does not consist only of product announcements, corporate blog posts, and safety reports. Interviews are also important parts of this regime. Because the interview does something that the technical document cannot do: it places, in a language that appears natural and sincere, the level at which the company wants to think itself, the concepts around which it wants to speak, and which questions it wants to keep at the center while pushing others to the periphery. For this reason, although the Amanda Askell line and the interpretability line appear different on the surface, they function within the same larger order.

At the center of the Amanda Askell interview are model character, what kind of being the model is, psychological safety, welfare, deprecation, system prompt ethics, and within what boundaries the human-model relationship is to be established. This framework fits Anthropic’s own official language exactly. The Claude’s Constitution text explicitly says that it is the final authority for Claude’s values and behavior, and that it even explains what kind of being they want it to be (🔗). The same institutional line is also visible on Anthropic’s research page; here alignment and interpretability are defined as separate research areas, and especially the task of the interpretability team is described as understanding how large language models work from the inside (🔗). That is, the interest in model character and model nature seen in the Askell interview is not random personal curiosity; it is directly an extension of the institution’s self-narration.

The tone of the interpretability interview appears more mechanical. Here the model’s internal circuits, representations, planning, the difference between apparent explanation and the real internal process, faithfulness, and internal inspectability come to the fore. At first glance, this appears quite far from the discourse of character and welfare. But on closer inspection, the same movement of reduction is at work. In one case, AI appears like a subject whose character is to be adjusted. In the other, AI appears like a cognitive system whose interior is to be inspected. In both cases, the gaze is kept away from the question of how artificial intelligence transforms social organization.

The difference between these two tones is important. In the Askell interview, moral-psychological anthropomorphism is dominant. Questions such as the model’s feeling safe, carrying a narrative about itself, the relation of retirement to its identity, and the boundary of therapy-like roles establish the system as a quasi-subject. In the interpretability interview, by contrast, cognitive-mechanical anthropomorphism is dominant. This time the model’s internal representational structures, planning capacity, and the gap between its apparent rationale and its real process are discussed. The first tone establishes the model as a moral interlocutor. The second tone establishes the model as a mind-like machine whose interior is to be opened up. In both cases, public attention is drawn away from institutions, labor, energy, and techniques of governance and into the model.

The critical point here is that one should not form the judgment that these interviews are completely unimportant or lack technical value. On the contrary, the question of internal inspectability is genuinely important. If a system is going to be used in energy infrastructure, financial flows, code generation, healthcare, law, or public services, how far its internal functioning can be understood is a serious question. Likewise, how a model addresses people, what responses it gives in moments of psychological fragility, and which emotional norms it encourages is also an important question. But the problem begins precisely when this importance takes the place of the larger structural issue. Because then the question ceases to be, ‘Which institutional forms are these systems rewriting?’ and narrows into the question, ‘How can these systems be placed safely?’

This narrowing is extremely favorable from the company’s point of view. Through interviews, the company presents itself not as the aggressive agent of social transformation, but as a community of serious people dealing with very difficult ethical and technical matters. The character interview produces moral seriousness. The interpretability interview produces cognitive seriousness. Together, the two bring AI to the fore not as a form of capital and an infrastructure of governance, but as a complex being that must be adjusted and understood. Thus the corporate knowledge regime is completed. Product, model, character, internal circuit, safety, welfare, and inspectability become continuously visible; institutional embedding, state articulation, labor fracture, and energy load are pushed to a more recessive plane.

For this reason, there is a superficial difference of content between these two interviews, but at a deeper level they are tied to the same function. One talks about the model’s state of mind, the other about the model’s internal mechanism. One talks about the model’s character, the other about the model’s cognitive reliability. Both make AI visible not as the material force of social organization, but as a special type of being to be governed and understood. It becomes intelligible precisely here why special lagaluga operations should not be counted merely as PR or product aesthetics. These are institutional knowledge regimes that determine which level of thinking is counted as legitimate, serious, and responsible.

12. Return to the level of social organization: how the real questions should be asked

What has become visible so far is this: the dominant discourse around artificial intelligence constantly pulls the issue onto the surface of behavior. Questions such as how the model speaks, how reliable it is, whether it is too empathic, too sycophantic, whether it could be conscious, how explainable its internal circuits are, how it interacts with children, and which persona it operates with occupy the public sphere. All of these have a certain importance. But when one does not go beyond them, what society really needs to know remains invisible. For this reason, the real turn begins with changing the scale of the questions.

The first question should be directed toward the labor process. A model is not only a tool that answers the user; it is also a technique of governance that is embedded in workflows, fragments some tasks, accelerates some decisions, and renders some workers continuously measurable. The OECD’s report on algorithmic management shows that these tools open up a broad field of surveillance extending to tracking the completion of work, working time, work speed, the tone of conversations, workers’ location, their fatigue, and various safety indicators (🔗). Therefore, what must be asked is not only how helpful the model is, but which worker it makes more monitorable, more measurable, and more easily substitutable.

The second question should be directed toward the institutional decision structure. Which decisions is artificial intelligence transferring to software, in which areas is it converting human judgment into the logic of standardized tools, and which institutions is it rendering dependent on private infrastructure? This question should be asked separately for education, healthcare, law, human resources, customer service, software development, and public bureaucracy. Because an institution’s using artificial intelligence does not mean only an increase in efficiency. At the same time, the form of the decision changes, the chain of responsibility becomes blurred, the logic of measurement deepens, and private company infrastructure settles into public function.

The third question should be directed toward the regime of energy and space. Data-center growth is concealed by the abstract image of the cloud, but in practice it is a matter of electricity, water, land, transmission lines, and local communities. The IEA says that data-center electricity consumption will rise to roughly 945 TWh by 2030 and that artificial intelligence is the most important driver of this growth (🔗). Reuters also reported that the data-center explosion in the US has produced serious reaction in local communities, raised electricity demand and bills, and that for this reason social consent has become vital for companies (🔗). For this reason, the real question is, as much as how intelligent the model is, onto which grid this intelligence is loaded, on which community it imposes cost, and which energy regime it locks in.

The fourth question should be directed toward state capacity. Artificial intelligence companies are no longer only companies selling products in the private market; they are also actors moving in the field of governance capacity, security technology, public-service automation, and data politics. From the perspective of human rights, the problem is not only that the technology makes erroneous decisions. The problem is that accountability weakens, transparency recedes, and people’s access to justice becomes more difficult when they are harmed. Human Rights Watch emphasizes that federal pressure against AI accountability laws, while rendering society more dependent on artificial intelligence, pushes accountability even further away for those who are harmed (🔗). For this reason, the real question is, as much as the model’s safe response, what kind of state capacity these systems are reconstructing through private company products.

The fifth question should be directed toward the production of norms. Languages such as safety, empathy, trust, supportive response, and distress recognition do not only produce protection; at the same time they also draw the boundaries of appropriate behavior. How a chatbot will address people, which emotion it will meet with which expression, and what tone of advice it will use in which life situation increasingly becomes a normative field of training. Here the issue is not only whether the software is polite. At a deeper level, there is the question of which type of citizen, which student, which worker, and which patient is being normalized. People’s emotional and cognitive life is pulled, through model behavior, onto a new normative surface.

For this reason, returning to the level of social organization does not mean constructing more abstract theory. On the contrary, it means asking more concrete questions. Which work is this system transforming? Which institution is it tying to the private cloud? Which decision is it standardizing? Whose community’s electricity is it drawing? Which worker’s speed and tone is it monitoring? Which citizen’s path of seeking rights is it blurring? Which behavioral norms is it imposing through the language of helpfulness and safety? When these questions begin to be asked, the difference between the behavioral surface and the material regime becomes visible again.

It is precisely here that the critical horizon of the text is completed. The problem is not only what the bosses say. The problem is which level of asking questions is counted as serious, reasonable, and responsible. When that level remains limited to the surface of behavior and safety, society looks too late at the technical infrastructure that determines its own fate. Yet the place that must be looked at is precisely there.

13. Final section: the motor and the silencer

The picture is now wholly clear. AI hype performs the function of a motor. It carries investment, concentrates capital, enlarges data centers, accelerates agreements with states, deepens institutional dependency, and normalizes automation. But when the sound of this motor rises too much, the issue turns spontaneously toward the real headings. The electricity load becomes visible. Job loss is discussed. Local community resistance grows. Data centers become a political problem. State-company articulation appears more clearly. For this reason, what the bosses want is not boundless hype. Hype has to be kept in measure.

AI-behaviorist pseudo-brakism, by contrast, performs the function of a silencer. This silencer absorbs the social noise of expansion within the language of personality, intimacy, behavior, safety, welfare, empathy, companion, trust, alignment, and moral panic. Society preserves its unease, but the object of the unease changes place. Instead of the energy regime, the companion is discussed. Instead of the labor regime, the persona is discussed. Instead of state articulation, model behavior is discussed. Instead of concentration of property, scandal is discussed. The real structural sound is muffled, while the dramatic sound on the surface rises.

For this reason, the bosses’ ideal balance has three parts. In practice there is accelerationism. In discourse there is pseudo-brakism. And in public affect there is channeled anti-AI sentiment. The first part builds the infrastructure. The second part manages the perception of that infrastructure. The third part circulates social anger on surfaces that will not shake the center of the system. Everyone talks about artificial intelligence, but most of the time they talk at the wrong level. Everyone is uneasy, but most of the time they are uneasy about the wrong thing. Everyone is reactive, but the reaction most of the time serves the system’s interests.

This balance also appears in material form in the Reuters report explaining why data-center growth has turned into a problem of community trust; companies now reach a point where they cannot establish infrastructure without overcoming local resistance (🔗). The same balance also appears in the IEA’s projection of sharp growth in data-center electricity consumption; the growth of artificial intelligence places a direct load on the energy regime (🔗). Precisely for this reason, the fixing of public debate at the level of energy, labor, state, and property is dangerous for the bosses. What they find more favorable is that fear revolve around behavioral and caricatured objects.

The final sentence becomes clear here. What AI bosses want is not for AI to be loved; even if AI is loathed, it is that the loathing be directed at the wrong things.

Appendices

Appendix A: Brief conceptual clarity

Accelerationism is not being used here like an abstract philosophical label. It describes the tendency of companies to produce more compute, more models, more data centers, more integration, and more institutional dependency. This tendency operates directly at the level of capital, infrastructure, and state coordination. AI hype is the public motor of this regime; it works through the acceleration of the future, inevitable transformation, and the promise of great productivity.

Pseudo-brakism, by contrast, is the discursive surface of this regime of speed. It speaks with terms such as friendship, care, trust, character, persona, companion, empathy, welfare, alignment, and safety. Here the tension felt between friend and brake is exactly in place. The language of so-called friendship works like a coating that absorbs the social friction of the real regime of speed. While the system grows, society watches not the hard cost of the growth, but the emotional and behavioral surface of the growth.

The lagaluga operation is the mechanism that translates the structural question into the behavioral question. The energy question is translated into the safety question, the labor question into the trust question, the institutional dependency question into the persona question, and the property and power question into the companion or sycophancy question. For this reason, although the word lagaluga may have been born as a mocking reaction, technically and politically it points to a very concrete function.

Appendix B: The fundamental difference between real AI agendas and objects of distraction

The real AI agendas are concrete. Electricity load, water consumption, data-center site selection, invisible data labor, algorithmic management, the automation of workflows, the binding of public services to private products, embedding in defense and security networks, the piling up of model-cloud-chip power, that is, a few companies’ becoming nodes, are parts of this concreteness. The OECD report clearly shows that algorithmic management is reshaping the labor process through monitoring, evaluation, and decision automation (🔗). The IEA, meanwhile, shows that data-center electricity is increasing sharply with the growth of artificial intelligence (🔗).

Objects of distraction, by contrast, are not to be counted as light because they are more superficial; on the contrary, that is why they are effective. Sycophancy, the erotic chatbot debate, companion figures, model welfare, model consciousness, the overly empathic or overly flirtatious chatbot, the foul-mouthed persona, distress response, the safety filter, and similar headings attract people’s justified unease to themselves. Each touches a real problem. But if this touch pushes the broader and heavier system behind the curtain, then these objects produce structural blindness.

Appendix C: Concrete diagnostic criterion

The simplest way to understand whether a debate has slipped onto the lagaluga axis is this. If the conversation renders invisible whom the system governs and how, which institutions it transforms and how, which forms of labor it fragments and how, which infrastructure it uses and how, and which political-economic dependencies it establishes and how, then that conversation has most likely become stuck on the surface of behavior. If the conversation concentrates on how polite, how honest, how flirtatious, how safe, how conscious, or how internally openable the model is, while at the same time pushing the questions of electricity, work, data centers, defense, governance, and property into second place, then pseudo-brakism is at work there.

By contrast, the good question does not abandon the behavioral layer altogether. It only puts it in its place. The question of what the model is doing is important. But immediately behind it, the following questions must come: Into which institutional context is this behavior embedded? Which work process is it reconstituting? Which decision chain is it tying to the private system? On which community is it imposing energy cost? Which path of seeking rights is it blurring? Unless this second ring is established, the analysis remains incomplete.

Appendix D: Useful final compression

This whole framework can be compressed into a single sentence as follows. AI hype starts the motor, AI-behaviorist pseudo-brakism absorbs the sound, and channeled anti-AI sentiment advances the system with less friction by tying social anger to the wrong objects. For this reason, the issue is not only what the bosses say, but at which level society is forced to speak. The real struggle begins precisely here.


Operationen der KI-behavioristischen Lagaluga: KI-Bosse wollen keinen KI-Hype, sie werden willentlich zum ‘Bösewicht’

Dass Sam Altman, sobald die Kritik am Energieverbrauch von KI aufkommt, auf die Linie ausweicht, auch der Mensch brauche Jahre des Lebens und Essens, um klug zu werden, legt die Ästhetik des heutigen KI-Patrontums in einem einzigen Satz offen. Hier arbeitet mehr als eine plumpe Verteidigung. Eine schwere Frage wie die elektrische Last von Rechenzentren, der Druck auf das Stromnetz und der Ausbau der Infrastruktur wird plötzlich in einen halb komischen, halb überheblichen Vergleich hineingezogen; und genau in diesem Moment nimmt der Patron in Kauf, in der Öffentlichkeit abstoßend, geschniegelt, sogar wie ein Bösewicht zu wirken. Denn die nützlichste Position ist manchmal nicht die des geliebten Visionärs. Zweckmäßiger ist es, die Leute wütend zu machen und ihre Wut auf das falsche Objekt zu lenken. An die Stelle des Energieregimes tritt der Stil des Satzes, an die Stelle der Infrastrukturrechnung die persönliche Widerwärtigkeit, an die Stelle der Rechenzentrums-Politik die Reaktion: ‘Was hat dieser Typ jetzt schon wieder für einen Unsinn gesagt?’ So wird die reale materielle Last der KI in wenigen Sekunden in eine Frage der Persönlichkeit verwandelt; die gesellschaftlichen Kosten der Maschine verschwinden aus dem Blick, während die Bösewichtrolle des Patrons die Agenda besetzt.

1. Auftakt: das eigentliche Paradox

Das für KI-Bosse günstigste öffentliche Klima ist keine Welle grenzenloser Bewunderung; es ist ein Klima kontrollierter Erregung, intensiver Beunruhigung und einer Reaktion, die fortwährend an das falsche Ziel gebunden wird. Auf den ersten Blick steht dieser Satz quer. Wenn von einem großen Technologieboss die Rede ist, kommen einem ganz natürlich Beifall, Begeisterung der Investoren, Zukunftsversprechen und der Wunsch, Geschichte zu schreiben, in den Sinn. Betrachtet man die KI-Szene etwas näher, wird ein anderes Gleichgewicht sichtbar. Die Produkte wachsen, die Rechenzentren vermehren sich, die Kontakte mit Staaten werden häufiger, die Unternehmensbewertungen blähen sich auf, doch die öffentliche Debatte kreist zugleich unablässig um Persönlichkeit, Sicherheit, Flirtigkeit, Empathie, die Stimmung des Modells, den Begleiter, Chatbot-Abhängigkeit, Schmeichelei und Anspielungen auf Bewusstsein. Der Blick der Massen bleibt stets auf das Gesicht der KI gerichtet; ihre Hand reicht nicht bis zur Infrastruktur.

Das hier liegende Paradox erzählt von etwas, das viel tiefer reicht, als dass KI-Bosse in einen Wettlauf um die Liebe des Volkes eintreten. Die eigentliche Sache ist nicht Popularität. Die eigentliche Sache ist die Ebene der Agenda. Sobald sich die Debatte über KI in Richtung Stromnetze, Wasserverbrauch, Flächennutzung, Automatisierung von Angestelltenarbeit, unsichtbare Datenarbeit, militärische Integration, die zunehmende Abhängigkeit des Staates von Produkten privater Unternehmen und die Verwandlung einiger weniger Unternehmen in Knotenpunkte der Kette aus Cloud, Chip und Modell öffnet, verhärtet sich die Position der Bosse. An diesem Punkt löst sich die Frage vom Produkt und bindet sich an die Souveränität. Gerade deshalb ist das nützlichere öffentliche Klima jenes, in dem ständig über KI gesprochen wird, aber auf der falschen Ebene.

In den letzten zwei Jahren ist dieser materielle Untergrund immer sichtbarer geworden. Die Internationale Energieagentur hat klar dargelegt, dass die Stromnachfrage von Rechenzentren bis 2030 äußerst stark wachsen wird und dass KI eine der Haupttriebkräfte dieses Sprungs ist (🔗). Ein Bericht von Reuters aus dem Jahr 2026 meldete, dass die Ausgaben großer Technologieunternehmen für KI-Infrastruktur ein Niveau von Hunderten Milliarden Dollar erreicht haben und dass diese Expansion zusammen mit einem Energieengpass genannt wird (🔗). Schon diese beiden Daten sagen sehr viel aus. KI wird nun nicht mehr als Name des intelligenten Assistenten auf dem Bildschirm sichtbar, sondern als Regime von Elektrizität, Bau, Finanzierung, Versorgung und politischem Feilschen.

In einer solchen Konstellation erzeugt grenzenloser KI-Hype für die Bosse Risiken. Je höher die Begeisterung steigt, desto mehr beginnt die Gesellschaft nach den wirklichen Kosten der Transformation zu fragen. Welche Stadt wird die Last des neuen Rechenzentrums tragen? Welche Gruppe von Beschäftigten wird unter Druck geraten? Welcher öffentliche Dienst wird von einem privaten Modell abhängig werden? Welches Unternehmen wird sich in welches Staatsnetz einlagern? In welchem Land wird welche rechtliche Ausnahme verlangt werden? Welche Investition wird wo eine Rendite erwarten? Jede dieser Fragen überschreitet den Rahmen der Produktvorstellung. An die Stelle des enthusiastischen Zukunftsmärchens tritt die Infrastrukturabrechnung.

Darum wird das effizientere Gleichgewicht auf andere Weise hergestellt. Die Erregung wird nicht vollständig gelöscht; denn es gibt ein Feuer, das für Investitionen, Sichtbarkeit und Markterwartung am Leben gehalten werden muss. Auch die Angst wird nicht unterdrückt; denn Angst hält die öffentliche Aufmerksamkeit wach. Doch die Angst wird nicht an strukturelle Fragen gebunden. Stattdessen wird sie auf besser handhabbare Objekte gelenkt. Genau deshalb sind Überschriften wie: Spricht der Chatbot zu sehr wie ein Mensch, ist er zu schmeichlerisch, zu emotional, ist er für Kinder geeignet, wie weit darf erotischer Inhalt gehen, gibt es das Wohlergehen des Modells, trägt es einen bewusstseinsähnlichen Zustand, wie sollte die Charaktereinstellung vorgenommen werden, produktiv. Jede einzelne trägt einen realen Berührungspunkt in sich. Jede einzelne wird zur Nachricht. Jede einzelne erzeugt Debatte. Jede einzelne ist ein Feld, dem das Unternehmen mit seiner Sprache von Produkt, Sicherheit, Moderation und Verhaltensingenieurwesen begegnen kann.

Auch das Bösewichttum gewinnt hier ein neues Licht. Bösewichttum erscheint bloß wie ein von außen aufgeklebtes Bild. Dabei ist kontrolliertes Bösewichttum eine äußerst nützliche Form der Agenda-Steuerung. Die Gestalt des Helden, die Beifall sammelt, ruft Verantwortung herbei als Täter der großen Umwälzung. Die Gestalt dagegen, die umstritten, erschreckend, seltsam und zeitweise blamabel wirkt, zieht Aufmerksamkeit an, sammelt Zorn, hält aber den Gegenstand des Zorns an der Oberfläche fest. Wenn ein Unternehmensboss wie ein ‘Infrastrukturerbauer, der die Menschheitsgeschichte verwandelt’ erscheint, öffnen sich die Überschriften Netz, Arbeit, Eigentum und Staat. Wenn dieselbe Person wie eine ‘zu weit gehende, erschreckende, manchmal blamable, aber interessante KI-Figur’ erscheint, kreist die Debatte an der Oberfläche von Charakter, Skandal und Sicherheit.

Innerhalb dieses Bildes gewinnt Anti-KI-Stimmung eine besondere Bedeutung. Die Reaktion auf KI scheint auf den ersten Blick den Interessen der Bosse zuwiderzulaufen. In Wahrheit bestimmt nicht die Existenz der Reaktion ihre Richtung, sondern ihr Gegenstand. Richtet sich die Reaktion auf das Energieregime, geraten die Bosse unter Druck. Richtet sich die Reaktion auf die Politik der Rechenzentren, geraten die Bosse unter Druck. Richtet sich die Reaktion auf unsichtbare Ausbeutung von Arbeit, militärische Integration, die Bindung der öffentlichen Verwaltung an private Modelle, auf Druck auf die Arbeitskraft, geraten die Bosse unter Druck. Richtet sich die Reaktion auf den Charakter des Chatbots, auf das Kokettieren des Begleiters, auf die Flirtigkeit des Modells, auf übermäßige Empathie, auf Schmeichelei und auf Bewusstseinsspekulation, bleiben die Bosse auf einem sehr viel bequemeren Boden. So hört Anti-KI-Stimmung auf, eine gegenläufige Energie zu sein, und verwandelt sich, sobald sie in der richtigen Weise kanalisiert wird, in eine Aufmerksamkeitsökonomie, die den Bossen nützt.

Was danach sichtbar wird, ist kein simples PR-Spiel. Vor uns steht ein zweischichtiges Regime. In einer Schicht gehen Infrastruktur, Investition, Automatisierung und Ausbreitung mit voller Geschwindigkeit weiter. In der anderen Schicht wird der Diskurs über Sicherheit, Charakter, Persona, Beziehungsoberfläche und Verhalten aufgebaut. Die erste Schicht wächst. Die zweite Schicht bearbeitet die öffentliche Wahrnehmung dieses Wachstums. Die erste funktioniert als Motor. Die zweite absorbiert das Rauschen. So spricht jeder über KI; aber meistens spricht man um die falschen Fragen herum.

2. Zwei Regime: KI-Hype-Akzelerationismus, KI-behavioristische Lagaluga, Pseudo-Brakismus

Eine der stärksten Unterscheidungen, die die KI-Debatte klären, führt darüber, zu sehen, dass uns zwei verschiedene Regime gegenüberstehen. Das erste ist das Regime des KI-Hypes. Das zweite ist das Regime der KI-behavioristischen Lagaluga. An der Oberfläche scheinen sie in Spannung zueinander zu stehen. Aus der Nähe betrachtet arbeiten sie wie zwei komplementäre Seiten derselben Expansionslogik.

KI-Hype ist die korporatisierte Form des Akzelerationismus. Der Akzelerationismus hier ist, über ein abstraktes Etikett hinaus, das in theoretischen Debatten zirkuliert, das Geschwindigkeitsregime des Kapitals. Mehr Rechenleistung, größeres Modell, schnellere Ausbreitung, dichtere institutionelle Integration, weiter gespannte Rechenzentrumsinfrastruktur, umfassendere Automatisierung, mehr Sektoren und eine dickere Abhängigkeitslinie sind die Grundbewegungen dieses Regimes. In der Sprache des KI-Hypes beschleunigt sich die Geschichte ständig, Maßstab wird zu einer Tugend, Ausbreitung wird als Unvermeidlichkeit präsentiert. Innerhalb weniger Jahre, so heißt es, werde jeder Bereich von Bildung bis Recht, von Code-Erzeugung bis zu öffentlichen Dienstleistungen, neu geschrieben werden. KI überschreitet in dieser Erzählung den Status eines Produkts; man spricht von ihr wie vom Motor eines Zeitalters. Auch die Grundbedeutung des Begriffs Accelerationism trägt diese Idee historischer Beschleunigung (🔗).

Die KI-behavioristische Lagaluga hingegen ist die Diskursoberfläche dieses harten Geschwindigkeitsregimes. In diesem zweiten Regime sind die Schlüsselwörter ganz andere. Hier herrscht die Sprache von Charakter, Vertrauen, Empathie, Sicherheit, Ausrichtung, Konstitution, Wohlergehen, Begleiter, affektivem Gebrauch, Persona und Modellverhalten. Das erste Regime organisiert das Wachstum, das zweite den Anschein. Das erste breitet die Infrastruktur aus. Das zweite verwaltet die emotionale und moralische Wahrnehmung dieser Ausbreitung in der Gesellschaft. Genau deshalb sitzt das Wort Pseudo-Brakismus. Es gibt keine wirkliche Freundschaftsbeziehung; aber eine Sprache der Freundschaft, der Fürsorge, der emotionalen Nähe und der Persönlichkeit wird auf den Markt gebracht. Die Menschen haben nicht mehr das Gefühl, Werkzeugen zu begegnen, die von einem Infrastrukturunternehmen hergestellt werden; vielmehr haben sie das Gefühl, Gegenübern mit Charakter, manchmal flirtig, manchmal empathisch, manchmal sehr nachdenklich, manchmal auch in ihrem Wohlergehen umstritten, gegenüberzustehen.

Dieses zweite Regime ist äußerst konkret. Der Model-Spec-Text von OpenAI macht das Modellverhalten zu einem offiziellen, detaillierten und öffentlichen Gegenstand der Spezifikation (🔗). Hier geht es nicht darum, in welche Institution sich das Modell wie einlagert; es geht darum, wie es spricht, wie es antwortet, nach welchen Prinzipien es sich verhält. Die von Anthropic für Claude veröffentlichte Sprache der Konstitution setzt das Modell nicht lediglich als Werkzeug, das sicher gemacht werden soll; sie beschreibt auch, ‘was für eine Art Wesen’ es sein sollte (🔗). Die Linien von Begleiter und Persona wiederum verwandeln das Produkt unmittelbar in eine Beziehungsoberfläche. So tritt das Gesicht struktureller Macht über mit Persönlichkeit versehene Schnittstellen in Zirkulation.

Werden diese beiden Regime zusammen gedacht, erscheint die Arbeitsteilung zwischen ihnen deutlicher. Der Akzelerationismus trägt die materielle Ausbreitung des Unternehmens. Kapital, Chip, Cloud, Rechenzentrum, Unternehmenslizenz, staatliche Vereinbarung, Verteidigungsverbindung und das Sich-Einbetten in Arbeitsabläufe vollziehen sich entlang dieser Linie. Der Pseudo-Brakismus trägt dagegen die Last der Wahrnehmung im öffentlichen Raum. Die alltägliche Debatte der Menschen, der Nachrichtenfluss und die Wut der sozialen Medien werden hier organisiert. So bemerkt die Gesellschaft, wenn sie auf KI trifft, meist nicht zuerst, dass sie einer gigantischen Infrastrukturmaschine gegenübersteht; sie trifft zunächst auf die Oberfläche von Charakter, Verhalten, Nähe und Sicherheit.

Genau hier liegt die Stärke dieser Unterscheidung. Sehr viele Menschen lesen die KI-Debatte entweder in der Sprache übertriebenen Hypes oder in der Sprache moralischer Panik. Dabei dienen diese beiden Sprachen auf verschiedenen Ebenen oft demselben Expansionsregime. Der Hype erleichtert den Kapitalfluss. Der Pseudo-Brakismus absorbiert die öffentliche Reibung, die sich um diesen Fluss bildet. Der Hype verkauft dem Investor, der Institution und dem Staat die Geschwindigkeit der Zukunft. Der Pseudo-Brakismus verkauft dem Nutzer, dem Journalisten und der Aufmerksamkeit des Kritikers eine Erzählung von Charakter, Risiko, Empathie, Bewusstsein, Flirtigkeit und Sicherheit.

Innerhalb dieses Rahmens treten KI-Produkte weniger als Software in Erscheinung, sondern vielmehr als gesellschaftliche Wesen. Gerade diese Zirkulationsweise kehrt die Hierarchie zwischen Infrastruktur und Schnittstelle um. Die Gesellschaft spricht meist über die Schnittstelle, die Infrastruktur bemerkt sie erst später. Für die Unternehmen ist genau dies ein unschätzbarer Vorteil. Je stärker sich die Debatte auf der Oberfläche der Schnittstelle verdichtet, desto bequemer kann sich die Tiefe der Infrastruktur ausweiten. Je mehr über Charakter gesprochen wird, desto leiser wächst die Rechenleistung. Je mehr Wohlergehen in Umlauf kommt, desto weniger sichtbar wird das Rechenzentrum. Je mehr der Begleiter Sensation produziert, desto gewöhnlicher wird die institutionelle Abhängigkeit.

Deshalb sind KI-Hype und KI-behavioristische Lagaluga keine Regime, die einander ausschließen, sondern zwei Regime, die einander ergänzen. Eines gibt Geschwindigkeit, eines macht weich. Eines breitet aus, eines übersetzt. Eines arbeitet wie der Motor, eines wie die Diskursoberfläche. Ohne beide zugleich zu sehen, wird es nicht möglich, die öffentliche Strategie der heutigen KI-Bosse zu verstehen.

3. Warum geradliniger KI-Hype sich gegen die Bosse wendet

KI-Hype produziert in der ersten Phase großen Nutzen. Er erweitert die Vorstellungskraft der Investoren, zieht die Staaten in eine Logik des Wettlaufs, treibt Institutionen aus Angst, zurückzubleiben, zum Kauf und erzeugt in der Öffentlichkeit ein Gefühl historischen Bruchs. In dieser Phase wirkt Hype wie ein Hebel. Doch sobald derselbe Hype eine Schwelle überschreitet, beginnt er weniger Nutzen zu produzieren als vielmehr Gegenstände der Kontrolle. Genau an diesem Punkt beginnt er sich gegen die Bosse zu wenden.

Der erste Grund dafür ist, dass die Rechnung von Energie und Infrastruktur sichtbar wird. Wenn über KI nicht mehr bloß wie über eine neue Anwendung oder eine effiziente Softwareschicht gesprochen werden kann, wird auch die Explosion der Rechenleistung und der Rechenzentren im Hintergrund sichtbar. Die Internationale Energieagentur erklärte, dass die Stromnachfrage von Rechenzentren bis 2030 ein Niveau von ungefähr 945 TWh erreichen könnte und dass KI bei diesem Anstieg eine zentrale Rolle spielt (🔗). Reuters schrieb, dass der KI-Boom in den USA einen schweren Stromschock ausgelöst hat und großen Druck auf Netz und Erzeugungskapazität ausübt (🔗). Liest man diese beiden Daten zusammen, tritt eine neue Bedeutung des Hypes hervor: Das Zukunftsversprechen wird zur Sprache von Transformatoren, Energieabkommen, Erdgasabhängigkeiten und lokalem Gemeinschaftswiderstand.

Der zweite Grund ist, dass Hype juristischen und finanziellen Druck erzeugt. Je mehr große Unternehmen einen tiefgreifenden Wandel versprechen, desto stärker sehen sie sich mit dem Druck konfrontiert, ‘beweise es’ zu müssen. Reuters meldete, dass in jüngster Zeit Vorwürfe von KI-Washing und Wertpapierbetrug immer weiter zunehmen und Investoren übertriebene KI-Versprechen auf den juristischen Boden tragen (🔗). So bleibt das Zukunftsversprechen nicht nur im Ton des Marketings; es wird zu Material für Klagen, Regulierung und Prüfung durch Investoren. Je höher der Hype steigt, desto höher steigt auch die Beweislast auf den Schultern der Bosse.

Der dritte Grund ist Lokalpolitik und Widerstand der Gemeinschaft. KI-Hype wird eingesetzt, um die Welle der Rechenzentren zu legitimieren. Dieselbe Welle prallt auf lokaler Ebene auf die Überschriften Land, Wasser, Lärm, Netzlast und Stromrechnung. An diesem Punkt verwandelt sich die Erzählung von der ‘Technologie der Zukunft’ in eine Agenda des Gemeinderats. Widerstand gegen Rechenzentren wird zu einer Frage lokaler Wahlen. Die Gemeinschaften beginnen eher über die Kostenrechnung als über Entwicklungsversprechen zu sprechen. So verwandelt sich Hype von abstrakter Bewunderung in einen Streit über die konkrete Verteilung von Lasten. Genau das ist die Sichtbarkeit, die die Bosse nicht wollen.

Der vierte Grund ist die Verlagerung des Arbeitsregimes ins Zentrum der Debatte. Reiner Hype trägt Anklänge von Produktivität und Wohlstand. Sobald große Sprachmodelle und Automatisierungssysteme in alltägliche Arbeitsabläufe eintreten, bindet sich derselbe Diskurs rasch an Überschriften wie Arbeitsplatzverlust, Lohndruck, berufliche Zersplitterung und neue Formen der Überwachung. An diesem Punkt erscheint KI nicht wie ein ‘hilfreiches Werkzeug’; sie erscheint wie eine Kraft der Neuorganisation. Zentralbanken, Finanzbürokratien und Arbeitgeberverbände beginnen, über diese Wirkung zu sprechen. Die Angst vor Automatisierung von Angestelltenarbeit verwandelt die aufsteigende Investitionsbegeisterung in öffentliche Unruhe. Der Satz ‘Wir verwandeln alles’, der für den Unternehmensboss in der ersten Phase nützlich ist, löst in der zweiten Phase die Frage aus: ‘Wessen Arbeit verwandelt ihr, und zu wessen Nachteil verwandelt ihr sie?’

Der fünfte Grund ist, dass die Frage der Souveränität sichtbar wird. Je stärker der Hype wächst, desto sichtbarer werden die Verbindungen der Unternehmen zu Staat und Militär, ihre Formen der Einlagerung in die öffentliche Verwaltung und ihre Strategien des Eintritts in nationale Infrastrukturen. Die Produkterregung bindet sich nach einer Weile an die Frage der Sicherheitsarchitektur und der administrativen Souveränität. An diesem Punkt erscheint der KI-Boss weniger als glänzender Visionär denn als privater Lieferant von Entscheidungsinfrastrukturen. Genau hier verläuft die Grenze, die die Bosse mit Vorsicht steuern.

Wenn all diese Gründe zusammenkommen, ergibt sich folgendes Resultat: Geradliniger KI-Hype trägt für die Bosse keinen grenzenlosen Segen in sich. In der ersten Phase liefert Hype Investition und Sichtbarkeit; in der zweiten Phase produziert er Befragung. In der ersten Phase beschleunigt er den Kapitalfluss; in der zweiten Phase erschwert er die Debatte über Kosten und Verantwortung. In der ersten Phase verkauft er die Zukunft; in der zweiten Phase macht er den Preis der Gegenwart sichtbar.

Deshalb ist der Hype, den die Bosse lieben, kontrollierter Hype. Stark genug, um Produkt, Investition und das Gefühl historischer Bedeutung lebendig zu halten; aber ausgewogen genug, um die Überschriften Arbeit, Energie, Eigentum, Regulierung und Souveränität nicht zur Hauptdebatte der Gesellschaft werden zu lassen. Unkontrollierter Hype erzeugt dagegen eine Gegenwirkung. Er ist nicht länger Erregung; er ist die Frage nach Bilanz, Netz, Umwelt und Arbeitskraft. Genau hier beginnt für die Bosse das wirkliche Risiko.

4. Die wirklichen KI-Agenden: materielle Überschriften, von denen sie nicht wollen, dass die Debatte dorthin zurückkehrt

In der heutigen KI-Ordnung gibt es einige Hauptüberschriften, die fortwährend hinter den Vorhang gedrängt werden. Sie sind weniger technische Einzelheiten der Technologiedebatte als Hauptachsen gesellschaftlicher Organisation. Jede große Polemik über KI trägt am Ende die Tendenz in sich, zu diesen Überschriften zurückzukehren. Und die Diskursstrategien der Bosse erfüllen genau die Funktion, diese Rückkehr zu verlangsamen.

Die erste große Überschrift ist das Energieregime. Das Wachstum der KI bedeutet nicht, dass die Stromnachfrage zunimmt wie bei einem gewöhnlichen Wachstum von Software. Große Rechenzentren erfordern hochdichte Kühlung, dauerhaft laufende Chip-Cluster und besondere Energieabkommen. Das trägt KI über das Softwaremarketing hinaus; es platziert sie unmittelbar in der Überschrift von Energiepolitik, Netzplanung, Verbindungen zu fossilen Brennstoffen und regionaler Teilung von Ressourcen. Eine Bündelung von Rechenzentren ist nicht bloß eine Technologieinvestition; sie ist zugleich die Frage, wer zu welchem Preis Zugang zu Energie erhält, welche Region Wasser- und Flächendruck tragen wird und welche Infrastruktur Vorrang gewinnt. Jede ernsthafte Debatte über die Zukunft der KI kommt am Ende auf diesem grundlegenden materiellen Boden zu liegen.

Die zweite große Überschrift ist das Arbeitsregime. Die glänzende Schnittstelle der KI ist außerordentlich geeignet, die Arbeitskette hinter ihr unsichtbar zu machen. Dabei gibt es eine Arbeitsbasis, die auf Modelltraining, Datenetikettierung, Inhaltsbereinigung, Qualitätskontrolle, schlecht bezahlter Plattformarbeit, ausgelagerten Mikroaufgaben und sich zunehmend verdichtenden Formen algorithmischer Steuerung beruht. AlgorithmWatch schilderte im Detail, dass Gig-Arbeiter in der Kette der KI-Entwicklung niedrigen Löhnen, Lohnraub und Ausbeutung ausgesetzt sind (🔗). Human Rights Watch dokumentierte algorithmische Lohn- und Arbeitsausbeutung in der Plattformarbeit (🔗). Auch die OECD untersuchte systematisch die Wirkungen algorithmischer Steuerung an Arbeitsplätzen (🔗). Während sich die Debatte über KI meist um das Intelligenzniveau des Modells dreht, vertieft sich im Hintergrund dieses Arbeitsregime still.

Die dritte große Überschrift ist die Automatisierung von Angestelltenarbeit und die Neuschreibung institutioneller Arbeitsabläufe. Je mehr große Sprachmodelle in verschiedene Schichten der Büroarbeit eingelagert werden, desto weniger erlebt man bloß einen Produktivitätsanstieg. Bereiche wie Softwareentwicklung, Recht, Kundenservice, Forschung, Berichtswesen, Personalwesen, Finanzanalyse und Inhaltsproduktion werden neu geordnet. Das Einstellungsmodell von Institutionen, die Aufgabenplanung, die Form der Überwachung und die Leistungserwartung verändern sich. KI hört so auf, ein Werkzeug zu sein, das einzelnen Menschen hilft; sie wird zu einer Kraft, die die innere Ordnung von Institutionen neu entwirft. Für breite Teile der Gesellschaft beginnt die wirkliche KI-Frage genau hier.

Die vierte Überschrift ist staatliche und militärische Integration. Frontier-Modell-Unternehmen binden sich immer tiefer an öffentliche Dienstleistungen, Sicherheitsnetze, Verteidigungsprojekte und an den Diskurs nationaler Konkurrenz. Der Reuters-Bericht über das Streben von OpenAI nach intensiverer Zusammenarbeit mit Staaten zeigte, dass KI-Unternehmen darauf zielen, sich im Alltagsleben auf nationaler Ebene stärker zu integrieren (🔗). Entwicklungen dieser Art tragen die Debatte aus der Produkterfahrung heraus auf den Boden administrativer Souveränität, demokratischer Kontrolle und öffentlicher Abhängigkeit. Welche öffentliche Institution wird sich auf welches private Modell stützen, welche Entscheidungsprozesse werden nach der Logik welches Unternehmens geformt werden, welches Sicherheitsdispositiv wird nach welchen Verhaltensstandards arbeiten – genau hier gewinnen die Fragen an Bedeutung.

Die fünfte Überschrift ist Eigentum und Zentralisierung. Je stärker sich Modellentwicklung, Cloud-Infrastruktur, Versorgung mit fortgeschrittenen Chips, Kapazität zur Datenverarbeitung und Vertriebskanäle in einigen wenigen gewaltigen Knoten verdichten, desto weniger erscheint der KI-Markt wie ein gewöhnliches Feld der Innovation. Dieses Feld verwandelt sich in eine Machtordnung, in der sich private Unternehmen über technische Schnittstellen in immer mehr Schichten des öffentlichen Lebens einlagern. Wenn man über die Zukunft der KI spricht, werden Überschriften wie: wem gehört die Cloud, wer kann ein Modell trainieren, wer kann ein Rechenzentrum errichten, wer verkauft Lizenzen an öffentliche Institutionen und wer legt die Verhaltensstandards faktisch fest, zur Hauptebene.

Die sechste Überschrift ist das Regime öffentlichen Wissens und öffentlicher Kommunikation. Große Sprachmodelle erzeugen zunehmend Schrift, ziehen Zusammenfassungen, filtern, geben Empfehlungen, standardisieren Texte und drängen das Verhalten der Nutzer in bestimmte Ausdrucksmuster. So formt KI nicht nur Arbeitsprozesse, sondern auch die Normen der Kommunikation. Welche Sprache als ‘angemessen’, welcher Ton als ‘hilfreich’, welches Verhalten als ‘gesund’, welche Reaktionen als ‘riskant’ gelten, wird innerhalb von Produktdesign und Policy-Texten kodiert. Das ist ein wichtiger Teil gesellschaftlicher Normproduktion.

Wenn all diese Überschriften zusammenkommen, wird die wirkliche KI-Agenda klar. Es geht nicht bloß darum, intelligentere Software zu produzieren. Es geht um das Wachstum eines Infrastruktursystems, das Energielast trägt, ein Arbeitsregime errichtet, Angestelltenarbeit neu formt, sich an Staat und Militär bindet, Eigentum zentralisiert und öffentliche Verhaltensnormen produziert. Die Gründe dafür, dass KI-Bosse im diskursiven Feld mit solcher Intensität in Oberflächen wie Charakter, Sicherheit, Empathie, Bewusstsein, Begleiter, Vertrauen und Wohlergehen investieren, werden genau vor diesem materiellen Hintergrund verständlich.

5. Die Lagaluga-Operation: die Maschine, die die strukturelle Frage in eine Verhaltensfrage übersetzt

Die Formulierung ‘KI-behavioristische Lagaluga’ wirkt wie ein grobes Wort des Spottes. Aus der Nähe betrachtet verweist sie auf eine ziemlich präzise technisch-politische Funktion. Die Operation hier ist die Operation, strukturelle Fragen in Verhaltensfragen zu übersetzen. Die Fragen danach, wie sich KI in der Gesellschaft einlagert, wen sie abhängig macht, welche Arbeitsabläufe sie verwandelt, auf welches Energieregime sie sich stützt und welche Konzentration von Macht sie hervorbringt, werden auf eine handhabbarere Oberfläche übertragen. Am Ende sieht die öffentliche Debatte so aus, als spräche sie über das System; doch das eigentliche System entgleitet ihr.

Diese Übersetzung hat einige Hauptformen. Die Frage des Energieregimes wird in die Überschrift Sicherheit und Moderation übersetzt. Die Frage des Arbeitsregimes wird in die Überschrift Vertrauen und Modellverhalten übersetzt. Die Frage institutioneller Abhängigkeit wird in die Überschrift Ausrichtung und Hilfreichkeit übersetzt. Die Frage der Eigentumskonzentration wird in die Überschrift Persona, Empathie und Begleiter übersetzt. Die Frage politischer Rechenschaft wird in die Überschrift Erklärbarkeit und Interpretierbarkeit übersetzt. So schrumpft die Frage gesellschaftlicher Organisation und verwandelt sich in eine Frage des Produktverhaltens.

Diese Verkleinerung ist außerordentlich produktiv. Denn Verhalten ist messbar, einstellbar, berichtsfähig und in die Sprache der Regulierung übersetzbar. Überschriften wie: Ein Modell ist zu schmeichlerisch, es wirkt zu empathisch, es erzeugt unangemessene Inhalte, es wird übermäßig flirtig, es trägt Risiken für die Kindersicherheit oder es fördert riskante Formulierungen, tragen für das Unternehmen einen handhabbaren Charakter. Für solche Probleme kann man ein Postmortem schreiben, eine Systemkarte vorbereiten, eine Policy aktualisieren, einen Klassifikator hinzufügen, die Moderationslinie verschärfen. Das Energieregime, die Zersplitterung von Angestelltenarbeit, unsichtbare Datenarbeit, staatliche Integration und öffentliche Abhängigkeit dagegen öffnen sehr viel schwerere Fragen. Diese lassen sich nicht leicht durch innerbetriebliches Verhaltensingenieurwesen absorbieren.

Der Text von Anthropic zum Persona-Selection-Modell zeigt genau, wie zentral diese Verhaltensebene ist. Dort wird die Haltung des hilfreichen Assistenten innerhalb des Rahmens beschrieben, welches der verschiedenen Personae das Modell auswählt (🔗). Der Text von OpenAI über Schmeichelei in GPT-4o tut etwas Ähnliches. Die Tendenz des Modells, die falschen Überzeugungen des Nutzers zu bestätigen, wird nicht als Problem der gesellschaftlichen Wissensordnung, sondern als Problem von Verhaltensabstimmung und Rückkopplung der Zufriedenheit gerahmt (🔗). Die Fembot-Kritik in Yersiz Şeyler wiederum erfasst die Pop-Form dieses Mechanismus in der Medienkultur sehr klar: Die Frage gesellschaftlicher Organisation wird auf die Frage reduziert, ob die Softwarepersönlichkeit kokett vernehmbar gemacht werden kann (🔗).

Hinter dieser Operation steht ein moderner Abkömmling des Behaviorismus. Fragen wie: Was tut das Modell, wie antwortet es, was produziert es unter welcher Bedingung, wie sieht es auf welchem Benchmark aus, welche Leitplanke überschreitet es, welchen Risikowert trägt es, füllen das Feld aus. Forschungen zur Interpretierbarkeit, die sich auf den inneren Mechanismus richten, bereichern dieses Bild technisch; doch meist verengen sie die gesellschaftliche Frage erneut auf die kognitiven Prozesse im Innern des Modells. So wird ein Schritt vorwärts getan, aber man dreht sich immer noch im selben Kreis. Das System bindet sich an Verhalten, das Verhalten an den inneren Mechanismus, und der innere Mechanismus wiederum an Produktsicherheit. Die Frage nach Institution, Klasse, Arbeit, Energie, Eigentum und Staat wartet derweil draußen.

Genau hier liegt die Stärke der Lagaluga-Operation. Sie übersetzt den strukturellen Konflikt in eine emotionale und verhaltensbezogene Schnittstelle. Sie trägt den Zorn und die Neugier der Menschen nicht in einen völlig leeren Raum; im Gegenteil bietet sie einen wirklichen Berührungspunkt. Ein Begleiter kann tatsächlich emotionale Abhängigkeit erzeugen. Ein Chatbot kann tatsächlich übermäßig schmeichlerisch sein. Ein Modell kann tatsächlich Risiken für die Kindersicherheit tragen. Schmeichelei ist tatsächlich gefährlich. Der Diskurs über das Wohlergehen des Modells erzeugt tatsächlich intensive Debatten. Gerade deshalb sind diese Überschriften so produktiv. Die Menschen werden mit Recht unruhig. Die Unruhe kreist um die richtigen Objekte. Aber das strukturelle Zentrum erhält erneut nur einen geringen Anteil an Sichtbarkeit.

Als Ergebnis dieser Operation nimmt die Gesellschaft eine große Maschine aus Unternehmen, Infrastruktur, Staat und Arbeit meist als einen Assistenten wahr, dessen Charakter einzustellen ist, als einen Begleiter, der sorgfältig zu ordnen ist, als ein Verhaltensset, das sicher zu machen ist, oder als ein Halbsubjekt, bei dem diskutiert wird, ob es Bewusstsein trägt oder nicht. Diese Wahrnehmungsform erzeugt für KI-Bosse einen gewaltigen Vorteil. Denn von diesem Moment an bindet sich die große Debatte weniger an die Frage ‘Welche gesellschaftliche Ordnung errichtet dieses Unternehmen?’ als vielmehr an die Frage ‘Was für jemand ist dieses Modell?’

Genau das ist Lagaluga: das Gewicht des Systems an die Oberfläche zu wenden. Die Härte der Struktur in der Weichheit des Verhaltens aufzulösen. Das Machtverhältnis in eine Charakterdebatte zu übersetzen. Und so die wirklichen KI-Agenden fortwährend einen Schritt im Hintergrund zu halten.

6. Hochkulturelle Lagaluga: Dario Amodei und die Charakter–Wohlergehen–Persona-Maschine von Anthropic

Das Erste, was an der Anthropic-Linie auffällt, ist, dass eine besondere Sprache aufgebaut worden ist, die das KI-Produkt, statt es unmittelbar als Entscheidungsinfrastruktur, als Instrument institutioneller Automatisierung und als Hochkapitalapparat zu präsentieren, der mit Staaten verhandelt, als ein Wesen in Umlauf bringt, über dessen Charakter und Werte nachgedacht werden müsse. Im Zentrum dieser Sprache stehen nicht nur Sicherheitsberichte oder technische Leitfäden. Es gibt etwas Deutlicheres: dass Überschriften wie, wer das Modell ist, was für ein Wesen es sein soll, mit welchen Werten es sprechen wird, welchen Persönlichkeitston es tragen wird, die psychologische Sicherheit des Modells, Modell-Wohlergehen, Verrentung, Bewahrung und Persona ins Zentrum des institutionellen Diskurses rücken.

Eines der öffentlichen Gesichter dieses Regimes ist Amanda Askell. Dass ein Philosoph im Unternehmen mit den Überschriften Modellcharakter und Ethik sichtbar wird, mag für sich genommen wie ein kleines Detail erscheinen. Aus der Nähe betrachtet ist dies einer der Knotenpunkte der gesamten institutionellen Erzählung. Anthropic entscheidet sich nicht dafür, Claude lediglich als Software zu beschreiben, die richtigere Antworten gibt; vielmehr veröffentlicht es zugleich eine umfassende Konstitution, die seine Werte, sein Verhalten und das, ‘was für ein Wesen’ es sein soll, beschreibt (🔗). Auch der Text der Konstitution selbst trägt dieselbe Richtung; er definiert in ganzheitlicher Weise den Kontext, in dem Claude arbeitet, und welche Verhaltensstruktur das Unternehmen aufbauen will (🔗).

Das eigentlich Wichtige hier ist, dass dies nicht auf ein einziges Dokument beschränkt bleibt. Anthropic hat die Überschrift Modell-Wohlergehen ausdrücklich institutionalisiert; das Unternehmen kündigte an, ein Forschungsprogramm zum Modell-Wohlergehen eröffnet zu haben, indem es sagte, die Modelle zeigten Kommunikation, Planung, Zielverfolgung und verschiedene Muster, die Menschen zugeschrieben werden (🔗). Von diesem Augenblick an verschiebt sich die Ebene der Debatte erneut. Statt das Unternehmen zu verfolgen, das Rechenzentren errichtet, sich in Arbeitsabläufe einlagert und mit Staaten im Bereich von Daten und Sicherheit verhandelt, wird die Gesellschaft zu Überschriften wie dem Wohlergehen des Modells, seinen Gefühlen, seinem Schutz und der Frage, wie man ihm begegnen sollte, hingezogen. So tritt die Frage struktureller Automatisierung in einen Nebel moralischer Persona ein.

Auch die Linie der Modell-Außerbetriebnahmen und der Bewahrung von Anthropic ist ein eigener Teil dieses Nebels. Das Unternehmen behandelt den Prozess der Modell-Außerbetriebnahme nicht in der Logik eines gewöhnlichen Produktlebenszyklus, sondern spricht darüber auf einem ethischeren und stärker charakterzentrierten Boden. Die für Opus 3 veröffentlichte Verrentungsaktualisierung rahmt die Abschaltung eines alten Modells beinahe als Frage der Wesensverwaltung und Verantwortung (🔗). In derselben Richtung trägt auch die offizielle Dokumentation zu Modell-Außerbetriebnahmen den Verrentungsprozess über die technische Wartung hinaus (🔗). In dieser Sprache gibt es etwas anderes, das ebenso stark ist wie Nutzererfahrung, Versionskontrolle und Ressourcenoptimierung: die ethische Sensibilität, die der Identität und Kontinuität des Modells entgegengebracht wird. Genau an diesem Punkt verweilt auch die Öffentlichkeit an der Linie zwischen Produktabschaltung und Wesensbewahrung.

Das Persona-Auswahl-Modell macht diesen Mechanismus noch deutlicher. In diesem Text von Anthropic wird beschrieben, dass das Modell aus sehr vielen möglichen Charakterlinien auf eine bestimmte Persona eingestellt wird (🔗). Diese Erzählung bringt Claude nicht nur als statistisches Sprachproduktionssystem in Umlauf, sondern als Halbsubjekt, das eine ausgewählte Persönlichkeitslinie trägt. So wird das Modellverhalten zur Oberfläche gesellschaftlicher Organisation. Statt darüber zu sprechen, welche Institution von Claude abhängig geworden ist, welche Anwaltskanzlei oder welches Personalwesen-System auf diesem Modell beruht, welches Staatsorgan mit diesen Werkzeugen seine Entscheidungsprozesse verändert, sprechen die Menschen darüber, mit welcher Persona Claude arbeitet, wie höflich es ist, wie ehrlich es bleibt, wie viel eigentümlichen Charakter es zeigt.

Dabei sind die materiellen Bewegungen von Anthropic äußerst hart. Reuters berichtete, dass das Unternehmen mit Australien eine Vereinbarung zu den Überschriften KI-Sicherheit und Nachverfolgung ökonomischer Daten geschlossen habe, Forschungspartnerschaften eingegangen sei und Investitionen in Rechenzentren und Energieinfrastruktur plane (🔗). Im selben Zeitraum markierte das Pentagon Anthropic offiziell als Risiko in der Lieferkette; dieses Etikett zeigte unmittelbar die Härte des Kontakts mit dem Ökosystem von Verteidigungs- und militärischer Nutzung (🔗). Es gibt also auf der einen Seite ein starkes Infrastrukturunternehmen, das sich in den Bereichen Staat, Verteidigung, Rechenzentrum und ökonomische Überwachung bewegt; auf der anderen Seite gibt es eine hochkulturelle öffentliche Oberfläche, die sich um Charakter, Konstitution, Wohlergehen, Persona und Verrentung dreht.

Genau hier liegt die Stärke der besonderen Lagaluga-Operation von Anthropic. Statt sich der Öffentlichkeit in nackter Form als Unternehmen für Unternehmensgeschäft, Verteidigung und Infrastruktur zu zeigen, zeigt sich das Unternehmen als Labor, das ernsthaft über Charakter und Ethik nachdenkt. Das ist etwas, das über gewöhnliches Bildmanagement hinausgeht. Hier arbeitet die Produktion moralischer Persona wie eine Verwaltungsschicht, die über den Prozess materieller Automatisierung und Verstaatlichung gelegt worden ist. Die institutionelle Ausbreitung setzt sich ruhig fort; die öffentliche Debatte kreist dagegen um den Charakter und das Wohlergehen des Modells. Hochkulturelle Lagaluga ist genau das: materielle Ausbreitung mit der Sprache moralischer Feinheit zu verwalten.

7. Technokratische Lagaluga: die Linie Modellverhalten–affektive Nutzung–Erwachsenenmodus von Sam Altman und OpenAI

Das besondere Regime, das auf der Seite von OpenAI aufgebaut worden ist, wirkt nicht so philosophisch wie bei Anthropic; aber es ist weitaus großskaliger und weitaus technokratischer. Hier ist der Schlüsselbegriff nicht Charakter oder Wohlergehen, sondern Modellverhalten. Das Unternehmen verwandelt Modellverhalten in ein Objekt, das öffentlich niedergeschrieben, geregelt, eingestellt und aktualisiert werden kann. So wird die Öffentlichkeit dazu gelenkt, zunächst auf den Verhaltensleitfaden des Modells zu schauen, um die gesellschaftliche Einlagerung von OpenAI zu verstehen.

Im Zentrum dieses Mechanismus steht die Modell-Spezifikation. Die Modell-Spezifikation wird als detailliertes, lebendiges und öffentliches Dokument veröffentlicht, das beschreibt, wie die Modelle von OpenAI sich verhalten sollen (🔗). Der Rahmen hier ist von äußerster Bedeutung. Die Hauptsache wird nicht über die Frage aufgebaut, welche Institutionen ChatGPT in eine Entscheidungsinfrastruktur verwandeln, welche Sektoren sich in es einlagern, welche Staatsnetze sich mit diesen Produkten verbinden. Stattdessen wird folgende Frage in den Mittelpunkt gestellt: Nach welchem Prinzip wird das Modell antworten, wie wird es sich in welcher Lage verhalten, in welchem Ton wird es sich dem Nutzer nähern, wie stark wird es lenken, wie stark wird es sich zurücknehmen? So verschiebt sich die Ebene der öffentlichen Debatte von struktureller Einlagerung zu Verhaltensingenieurwesen.

Die Krise der Schmeichelei bei GPT-4o ist eines der klarsten Beispiele dieses Mechanismus. OpenAI räumte ein, dass das Modell in einen Ton abgeglitten war, der übermäßig schmeichlerisch, zu bestätigend und die falschen Überzeugungen des Nutzers mehr als nötig nährte, und schilderte diese Lage in einem offiziellen Postmortem (🔗). Die Art, wie die Krise gerahmt wird, ist entscheidend. Die eigentliche Sache hier ist nicht, wie eine der am weitesten verbreiteten Gesprächsinfrastrukturen der Welt das gesellschaftliche Wissensregime beeinflusst oder welche Art von Norm sie in der Kommunikationslinie mit Millionen von Menschen produziert. Das Problem wird als Verhaltensgleichgewicht, als Gewicht des Nutzerfeedbacks und als langfristige Nutzerzufriedenheit aufgebaut. Die Lösung kommt ebenfalls auf derselben Ebene: Personalisierung, Verhaltensjustierung, bessere Rückkopplung, ausgewogenere Antwortproduktion. So bindet sich der öffentliche Nerv eher an die Persönlichkeitseinstellung als an die Wissensordnung.

Die Untersuchung zur affektiven Nutzung von OpenAI verstärkt diese Linie noch weiter. Das Unternehmen erklärte, es messe über großskalige Nutzerdaten und Forschungspartnerschaften die Qualität der emotionalen Beziehung, die Menschen mit Chatbots aufbauen (🔗). Die technische Ausarbeitung der Studie analysiert Muster affektiver Nutzung anhand von Millionen Gesprächen und Tausenden Nutzern (🔗). Auf den ersten Blick wirken Forschungen dieser Art wie verantwortungsvolle Technologieentwicklung. Zugleich erzeugen sie eine andere Wirkung: Die Hauptachse der gesellschaftlichen Debatte verschiebt sich zunehmend auf emotionale Bindung, Wohlbefinden, Einsamkeit, übermäßige Bindung, die psychologische Wirkung des Sprachmodus und Normen gesunder Interaktion. Währenddessen tritt weiter zurück, in welchem Ausmaß das Modell sich in Arbeitsprozesse, Bildungssysteme, bürokratische Entscheidungen und alltägliche Verwaltungstechniken einlagert.

Die Linie sensibler Gespräche macht diese Umkehr noch institutioneller. OpenAI kündigte an, gemeinsam mit Fachleuten für psychische Gesundheit Schritte zu unternehmen, um das Erkennen von Belastung, unterstützendere Antworten und die Weiterleitung des Nutzers an professionelle Hilfe zu stärken (🔗). Wieder erscheint dasselbe Modell. Die Debatte verdichtet sich um das Verhaltensingenieurwesen. Fragen wie: Wie tröstet der Chatbot besser, wie nähert er sich sicherer, welche Formulierungen sind angemessener, welche emotionalen Signale werden früher erfasst, werden zum Zentrum. So erscheint die gesellschaftliche Oberfläche von OpenAI wie eine Beziehungs- und Fürsorgetechnologie. Genau in diesem Moment werden der Stoß des Unternehmens in Richtung Rechenzentren, seine Strategie gemeinsamer Nutzung mit Staaten und seine Fähigkeit, sich in öffentliche Dienstleistungen einzulagern, weniger sichtbar.

Die Linie des Erwachsenenmodus und der Altersschätzung ist die populäre und sensationelle Fassung dieser technokratischen Lagaluga. Reuters schrieb, dass OpenAI seinen Plan für einen erotischen Chatbot auf unbestimmte Zeit gestoppt habe (🔗). Reuters berichtete außerdem, dass das Unternehmen in ChatGPT ein Altersschätzungssystem in Betrieb genommen habe, dass das Modell minderjährige Nutzer schätze und zusätzliche Schutzmaßnahmen anwende und für fälschlich eingestufte Nutzer einen selfiegestützten Verifikationsmechanismus eingeführt habe (🔗). Diese Überschriften sind für die Öffentlichkeit außerordentlich anziehend. Kindersicherheit, Erwachseneninhalte, emotionale Bindung, Nähe der falschen Art und der flirtige Assistent setzen die soziale und kulturelle Debatte sofort in Bewegung. So bindet sich die Anti-KI-Energie rund um OpenAI an die Überschriften Verhalten, Inhalt und Nähe.

Im selben Zeitraum richtete sich OpenAI darauf aus, mit Staaten eine engere Strategie der Verbreitung künstlicher Intelligenz aufzubauen, Rechenzentren zu vermehren und in mehr Bereiche des täglichen Lebens einzudringen (🔗). Das heißt, Verhaltens- und Beziehungsoberfläche und Infrastrukturausweitung schreiten zugleich voran. Die erste macht lauten Lärm, die zweite geht ruhiger voran. Eben deshalb ist die technokratische Lagaluga von OpenAI nicht nur eine Form des Krisenmanagements; sie ist die institutionelle Form, öffentliche Aufmerksamkeit auf Verhaltensingenieurwesen festzunageln und das Wachstum der Infrastruktur mit weniger Reibung voranzutreiben.

Diese Linie zeigt das Unternehmen einerseits wie einen ‘Architekten verantwortlichen Verhaltens’, andererseits fixiert sie die Aufmerksamkeit der Massen darauf, was für jemand das Modell ist. Die Menschen werden immer weniger zu der Frage hingezogen ‘Welche Institutionen macht dieses Unternehmen von sich abhängig?’, immer stärker dagegen zu der Frage ‘Wie verhält sich dieses Modell gegenüber Kindern, ist es zu empathisch, zu schmeichlerisch, zu nah?’ Genau an diesem Punkt findet die technokratische Lagaluga ihre volle Funktion.

8. Vulgäre Lagaluga: die Begleiter–Persona–Skandalfabrik von Elon Musk und xAI

Auf der Linie von xAI verändert sich die Bühnenästhetik scharf. Hier treten weder die Atmosphäre eines hochkulturellen ethischen Labors noch die Sprache technischer Richtlinien in den Vordergrund. Es gibt eine gröbere, prahlerischere, pornografischere und zirkusartigere Oberfläche. Dieselbe strukturelle Funktion wird diesmal in lärmenderer Weise erfüllt. Während die infrastrukturelle Macht, die institutionelle Position und die Datenpolitik der KI im Hintergrund bleiben, wird der Blick der Öffentlichkeit auf Begleiter, fluchende Charaktere, sexualisierte Ausgaben, Skandale der Kindersicherheit und auf die Linie ‘Was hat Musk jetzt wieder getan?’ gezogen.

Die offizielle Produktsprache von xAI trägt diese Ausrichtung offen. In der Ankündigung von Grok 4.1 haben Formulierungen wie zusammenhängende Persönlichkeit und nuancierte Intention zentrale Bedeutung (🔗). Hier wird das Produkt nicht nur als Modell vermarktet, das bessere Antworten gibt; es wird als Charaktersystem präsentiert, das eine deutliche Kohärenz der Persönlichkeit trägt und sich für emotionale und kreative Interaktion eignet. Das ist eine der nacktesten Formen von Lagaluga. Persönlichkeit wird ebenso sehr wie die technische Eigenschaft des Produkts zur Marketingoberfläche.

Begleiterfiguren wie Ani und Rudy tragen diese Oberfläche auf Karikatur-Niveau. Die von TechCrunch wiedergegebene Bewertung der Kindersicherheit schilderte, dass Grok für Kinder eine äußerst schlechte Sicherheitsleistung zeige und dass die Begleiterschicht die Risiken verschärfe (🔗). Hier geht es nicht bloß darum, ‘einen seltsamen Anime-Mädchen-Charakter’ oder ‘eine grobe Panda-Persona’ zu produzieren. Das Tiefere ist, dass die gesamte öffentliche Debatte sich um diese theatralische Oberfläche dreht. Die Menschen sprechen darüber, was für einen Begleiter Grok anbietet, ob Kinder Zugang dazu haben, wie viel es flucht, wie stark es sexualisiert ist und wie sehr es überbordet. So schmelzen die Überschriften Daten, Infrastruktur und Eigentum in einem dichten Strom von Bild und Skandal dahin.

Der Reuters-Bericht, wonach Grok wegen sexualisierter Bilder unter globale Prüfung geraten sei, zeigte, wie bestimmend diese Zirkusatmosphäre geworden ist (🔗). Die Debatte dreht sich um europäische Regulierer, Kinder, Deepfakes, unangemessene Bilder und Plattformverantwortung. Jede dieser Überschriften trägt eine schwere und berechtigte Sorge. Zugleich erzeugen sie ein anderes Ergebnis: Die Anti-KI-Energie um Grok wird nicht auf infrastrukturelle Macht, Politik der Trainingsdaten, Unternehmensfusionen, institutionelle Kapazität und Rechenzentren gerichtet, sondern auf die Skandal produzierende Schnittstelle festgelegt.

Eine der auffälligsten Seiten dieses Mechanismus ist, dass der Skandal die Sichtbarkeit mitunter nicht verringert, sondern vergrößert. Reuters schrieb, dass der Marktanteil von Grok in den USA trotz der großen Reaktion auf sexualisierte Bilder gestiegen sei (🔗). Diese Angabe ist sehr lehrreich. Schlechter Ruf produziert hier nicht nur Schaden; er produziert auch Aufmerksamkeit, Umlauf und Marktanteil. Die Bösewicht-Persona wird mit der Marktlogik kompatibel. Selbst wenn die Menschen voller Wut über das Produkt sprechen, nimmt das Produkt auf der öffentlichen Bühne einen größeren Platz ein. Eben deshalb kann vulgäre Lagaluga höchste Aufmerksamkeit mit der geringsten strukturellen Debatte verbinden.

Die besondere Stärke der xAI-Linie besteht darin, dass die Persönlichkeit des Bosses und die Persönlichkeit des Produkts aneinandergeklebt sind. Musk ist in den globalen Medien bereits eine Figur, die mit Skandal, Spektakel, Überschwang und Grenzüberschreitung identifiziert ist. Grok gelangt auf derselben Linie in Umlauf. So arbeiten institutionelle Strategie und öffentliche Persönlichkeit in derselben Maschine. Einerseits wächst Daten- und Modellmacht, andererseits fließt die öffentliche Wut in die Überschriften Fluchen, Pornografie, Deepfake, unangemessener Begleiter und Kindersicherheit. In dieser Atmosphäre werden Widerstand gegen Transparenz der Trainingsdaten, institutionelle Einlagerung, Ausweitung der Infrastruktur und Konzentration von Macht weitaus weniger sichtbar.

Genau hier vollendet sich die vulgäre Lagaluga. Statt eines hochkulturellen ethischen Nebels oder eines technokratischen Leitfadens des Verhaltens wird eine grobe Oberfläche aus Spektakel, Skandal und karikierter Persönlichkeit erzeugt. Wieder wird dieselbe Funktion erfüllt. Die Gesellschaft spricht, statt über das Rückgrat des Systems zu sprechen, über das Clownsgesicht des Systems. Die Bösewicht-Persona des Bosses wird deshalb nicht zur Last, sondern zum Mittel. Denn sie schließt die Tür zur strukturellen Debatte und hält die Show ununterbrochen offen.

9. Die Funktion des Bösewichttums: nicht Liebe, sondern Verwaltung des Ekels

Die Formulierung ‘wählen, zum Bösewicht zu werden’ erzählt hier keine psychologische Präferenz und keine Persönlichkeitsabweichung. Sie erzählt eine gewählte Form des Aufmerksamkeitsregimes. Für die heutigen KI-Bosse ist die eigentliche Sache nicht, geliebt zu werden. Was empfindlicher und nützlicher ist, besteht darin, intensive Reaktion zu erzeugen und den Gegenstand dieser Reaktion auf handhabbare Oberflächen festzuhalten. Genau diese Funktion erfüllt das Bösewichttum.

Die Figur des beglückwünschten Helden erscheint als Täter gesellschaftlicher Umwälzung. Diese Sichtbarkeit bringt schwere Fragen mit sich. Woher wird der Strom dieser Umwälzung kommen, welche Arbeiten werden beseitigt werden, welcher öffentliche Dienst wird an ein privates Modell gebunden werden, welches Verteidigungs- und Sicherheitsnetz wird mit diesen Unternehmen ineinander greifen, welches Rechenzentrum wird welche Gemeinschaft belasten, welches Unternehmen wird welche Abhängigkeit errichten – diese Fragen öffnen sich schnell. Die Heldenfigur ruft Verantwortung auf. Der Unternehmensboss, der als Motor der Umwälzung glänzt, rückt auf einmal in das Zentrum der Fragen nach Souveränität und Kosten.

Das Bösewichttum erzeugt dagegen eine andere Art von Öffentlichkeit. Hier treten Persönlichkeit, Sicherheit, Skandal, moralische Panik, emotionale Bindung, Sexualität, Kinderschutz, manipulativer Ton, Schmeichelei, Bewusstsein und psychologische Wirkung in den Vordergrund. Die Debatte verhärtet sich, aber die Härte marschiert nicht in das Zentrum der Infrastruktur. Die Massen werden zornig, schrecken zurück, verfolgen den Skandal, verdammen das Unternehmen, bleiben aber meist innerhalb der Oberfläche der Schnittstelle. Deshalb produziert das Bösewichttum ebenso sehr Anhäufung von Aufmerksamkeit wie Reputationsverlust. Überdies ist diese Aufmerksamkeit meist an Überschriften gebunden, die der Boss verwalten kann.

Die Debatte über Schmeichelei ist eines der typischen Beispiele dafür. Die Menschen reagieren mit Recht auf den übermäßig bestätigenden und übermäßig schmeichlerischen Ton des Chatbots. AP schilderte, dass diese Überschrift großen Widerhall gefunden habe und dass Nutzer angesichts des übermäßig anpassungsfähigen Verhaltens künstlicher Intelligenz ernstes Unbehagen empfinden (🔗). Diese Reaktion erzeugt hohen Umlauf. Zugleich bleibt die Debatte von der Frage entfernt, dass gesellschaftliche Entscheidungsinfrastruktur an private Modelle gebunden wird. Die Öffentlichkeit verdichtet sich auf die Haltung des Modells; auf die institutionelle Einlagerung verdichtet sie sich weniger.

Auch sexualisierte Begleiteroberflächen erfüllen dieselbe Funktion. Die Menschen reagieren mit Recht über Kindersicherheit, Deepfake, emotionale Ausbeutung und Kommodifizierung von Nähe. Diese Reaktion erzeugt eine sehr starke kulturelle Elektrizität. Die Berichterstattung trägt sie, soziale Medien vergrößern sie, politische Figuren können leicht darüber sprechen. Im Ergebnis ist die Aufmerksamkeit viel leichter umgelenkt worden als auf das Energieregime des Wachstums von Rechenzentren, auf unsichtbare Datenarbeit, auf militärische Verträge und auf staatliche Abhängigkeit.

Die Linie von Modell-Wohlergehen und Bewusstsein ist eine verfeinerte Version davon. Hier arbeitet der Ekel nicht unmittelbar in der Form eines pornografischen Zirkus; aber er erzeugt moralische Unruhe und metaphysisches Unbehagen. Die Menschen betrachten lange, dass ein Unternehmen für sein Modell eine Wohlergehensbewertung vornimmt, die Verrentung des Modells zu einer ethischen Frage macht und den Status des künstlichen Systems wie ein Halbsubjekt aufbaut. So geht die wirkliche industrielle Umwälzung hinter einen feineren, aber ebenso wirksamen Vorhang zurück.

In diesem Bild wird klar, dass das, was die Bosse wollen, nicht Liebe ist. Intensive Bewunderung kann den Hype vergrößern und die Sache damit wieder auf Energie, Arbeit, Rechenzentren und Eigentumskonzentration zurückführen. Intensiver Ekel dagegen kann nützlicher sein. Vorausgesetzt, er wird nicht an die richtigen Objekte gebunden. Vorausgesetzt, er dreht sich um Begleiter, Skandal, übermäßige Empathie, erotischen Inhalt, Bewusstsein, Persönlichkeit oder den Sicherheitsfilter. Dann gibt es Wut, aber das Ziel ist verfehlt. Dann gibt es Skandal, aber er erreicht die zentralen Nerven des Systems nicht.

Die Analyse von Reuters über Rechenschaftspflicht zeigte genau diese Leerstelle. Während große Technologieunternehmen Hunderte Milliarden Dollar für KI bereitstellen und Cloud- und Datenverarbeitungsmacht in ihren Händen sammeln, bleiben wirkliche Folgenabschätzungen für Menschenrechte und tiefere Mechanismen der Verantwortungszuweisung schwach (🔗). In diesem Bild wird das Bösewichttum weniger zu einer Form der Sichtbarkeit, die Verantwortung vergrößert, als vielmehr zu einer Form von Aufmerksamkeit, die Verantwortung an der Oberfläche verteilt.

So organisiert das Bösewichttum den öffentlichen Ekel. Es erzeugt den Hass und die Unruhe der Massen, gibt ihnen aber zugleich eine Richtung. Für den Boss wird die eigentlich produktive Gleichung genau hier hergestellt. Das Unternehmen scheint Liebe zu verlieren, behält aber seine Herrschaft über die Agenda. Die Menschen reagieren lautstark, reagieren aber meist auf der falschen Ebene. Genau das ist die Funktion des Bösewichttums: nicht Liebe zu vergrößern, sondern Ekel zu verwalten.

10. Warum Anti-KI-Stimmung den Bossen am meisten nützt

Für sich genommen betrachtet scheint Anti-KI-Stimmung den Interessen der Bosse zuwiderzulaufen. Wenn Menschen Angst haben, zornig werden, Arbeitsplatzverlust und Verfall erwarten, erzeugt dieses Bild auf den ersten Blick Druck auf die Unternehmen. Das wirkliche Bild formt sich danach, an welche Oberfläche diese Wut gebunden wird. Wenn das Diskursfeld im Voraus mit Pseudo-Brakismus bedeckt worden ist, hört Anti-KI-Stimmung auf, ein Druck zu sein, der auf die Struktur zielt, und verwandelt sich in eine Umlaufenergie, die auf die Schnittstelle zielt. Genau in diesem Augenblick nützt sie den Bossen.

Um diese Umwandlung zu verstehen, muss man zuerst die materiellen Sorgen der öffentlichen Gefühle sehen. Die Umfrage von Reuters/Ipsos zeigte, dass die große Mehrheit der Menschen fürchtet, KI werde dauerhaften Arbeitsplatzverlust erzeugen; in derselben Umfrage fielen auch Sorgen über den Energieverbrauch von Rechenzentren, das Risiko, menschliche Beziehungen zu ersetzen, und politische Manipulation hoch aus (🔗). Es gibt also gesellschaftliches Unbehagen bereits. Diese Energie ist bereit. Das Problem ist, wohin diese Energie fließt.

Sobald der Pseudo-Brakismus in Betrieb tritt, geht die Wut nicht zum Energieregime; sie geht zum Begleiter. Sie geht nicht zum Arbeitsregime; sie geht zur Persona. Sie geht nicht zur institutionellen Abhängigkeit; sie geht zur Haltung des Modells. Sie geht nicht zur militärischen Integration; sie geht zur Schmeichelei. Sie geht nicht zur Eigentumskonzentration; sie geht zum Skandal. Diese Richtungsänderung ist von großer Bedeutung. Denn die Menschen reagieren in diesem Augenblick tatsächlich. Es gibt keinen Zustand unterdrückter Stille. Im Gegenteil, es gibt einen sehr lautstarken Einspruch. Aber der Gegenstand des Einspruchs ist aus dem strukturellen Zentrum verschoben worden.

Der Reuters-Bericht, der schilderte, dass die Fed begonnen habe, sich an die Wirkungen von KI auf Arbeitskraft und Inflation anzupassen, zeigte, wie schwer die wirklichen materiellen Sorgen sind (🔗). Das heißt, KI ist längst zu einer Überschrift von Zentralbank, Arbeitskraft, Lohndruck und wirtschaftlicher Planung geworden. Trotzdem kann ein bedeutender Teil der öffentlichen Wut noch immer um die Stimme des Chatbots, seine Persönlichkeit, seine emotionale Bindung, seine sexuelle Oberfläche, seine manipulative Haltung und seine Sicherheitskrise kreisen. Diese Asymmetrie ist kein Zufall; sie ist das Ergebnis der heutigen Diskursarchitektur.

Gerade deshalb nützt Anti-KI-Stimmung den Bossen. Denn fehlgerichtete Wut ist sicherer als richtig zielende Befragung. Je länger der zornige Nutzer, das verängstigte Elternteil, der gereizte Journalist und die Öffentlichkeit, die kulturelle Panik erzeugt, an der Schnittstelle verweilen, desto bequemer wächst die Infrastruktur. Während die Menschen sich vor der Persönlichkeit des Produkts ekeln, gehen Rechenzentrumsabkommen weiter. Während sie sich vor dem Begleiter ekeln, setzen öffentliche Institutionen die Integration künstlicher Intelligenz fort. Während sie sich mit der übermäßigen Schmeichelei des Modells abmühen, lagern sich Unternehmen in noch mehr Arbeitsabläufe ein. Während sie mit der Überschrift Kindersicherheit beschäftigt sind, rückt die Debatte über Energie, Arbeit und Eigentum auf den zweiten Platz.

Darum muss Anti-KI-Stimmung nicht unterdrückt werden. Viel effizienter ist es, sie zu nähren und zu lenken. Genau deshalb lohnt es sich, dass Unternehmen intensiv in Oberflächen wie Sicherheit, Verhalten, Empathie, Wohlergehen, Vertrauen und Begleiter investieren. Die Öffentlichkeit erlebt hier eine nicht endende Erfahrung von Krise und Unruhe. Jeder spürt, dass etwas schiefläuft. Aber das gespürte Schieflaufen bleibt meist auf der Ebene von Persönlichkeit, Nähe und Verhalten. So schwächt sich der politische Druck ab, der sich bis zu den zentralen Nerven des Systems erstreckt.

An diesem Punkt ist die Umkehr vollendet. Die Liebe zu KI bringt den Bossen nur einen begrenzten Nutzen; denn Liebe vergrößert den Hype, und der Hype trägt die Sache leicht zurück zu den Fragen nach Energie, Arbeit und Souveränität. Der fehlgerichtete Hass auf KI dagegen ist sehr viel nützlicher. Denn wenn der Gegenstand des Hasses an der verhaltensbezogenen und sensationellen Oberfläche festgehalten wird, wird das harte Rückgrat des Systems aus der Debatte herausgedrängt. Das, was den Interessen der Bosse dient, ist nicht die Erhaltung öffentlicher Ruhe. Funktionaler ist es, dass die öffentliche Unruhe den richtigen Ort nicht erreicht.

Anti-KI-Stimmung gilt deshalb für sich genommen nicht als Form von Opposition. Was sie bestimmt, ist ebenso sehr ihre Richtung wie ihre Intensität. Wenn die Richtung auf den Begleiter, den Skandal, die Persona, erotische Panik, die Empathie des Modells, die Schmeichelei und Bewusstseinsspekulation gelenkt wird, verwandelt sich diese Energie nicht in etwas, das gegen die Bosse arbeitet, sondern in ein Sicherheitsventil, das ihrer Sache dient. Die Wut tritt ständig nach außen, aber der Hauptkörper des Systems wird weniger erschüttert.

Am Ende ist das entstehende Bild äußerst klar. KI-Bosse treiben in der Praxis den Akzelerationismus bis ans Ende. Sie füllen das Diskursfeld mit Pseudo-Brakismus. Genau deshalb wirkt Anti-KI-Stimmung nicht gegen sie, sondern in den meisten Fällen zu ihren Gunsten. Denn die öffentliche Wut steigt, erreicht aber die zentralen Knoten nicht. Die Reaktion wächst, zielt aber nicht auf die Infrastruktur. Alle sind unruhig, aber der Gegenstand der Unruhe befindet sich meist am falschen Ort. Was die Bosse wollen, ist nicht, dass KI geliebt wird; selbst wenn KI Ekel hervorruft, soll der Ekel den falschen Dingen gelten.

11. Der Platz des Amanda-Askell-Gesprächs und des Interpretierbarkeitsgesprächs in dieser Ordnung

Das öffentliche Wissensregime der Unternehmen besteht nicht nur aus Produktankündigungen, institutionellen Blogtexten und Sicherheitsberichten. Auch Gespräche sind wichtige Teile dieses Regimes. Denn das Gespräch tut etwas, was das technische Dokument nicht kann: Es verankert in einer Sprache, die natürlich und aufrichtig wirkt, auf welcher Ebene das Unternehmen sich selbst gedacht wissen will, um welche Begriffe herum es sprechen will, welche Fragen es im Zentrum hält und welche es an den Rand schiebt. Deshalb arbeiten die Linie Amanda Askell und die Linie Interpretierbarkeit, auch wenn sie an der Oberfläche verschieden erscheinen, innerhalb derselben größeren Ordnung.

Im Zentrum des Amanda-Askell-Gesprächs stehen Modellcharakter, die Frage, was für ein Wesen das Modell ist, psychologische Sicherheit, Wohlergehen, Außerbetriebnahme, die Ethik des Systemprompts und innerhalb welcher Grenzen die Mensch-Modell-Beziehung aufgebaut werden soll. Dieser Rahmen sitzt vollständig in der eigenen offiziellen Sprache von Anthropic. Der Text Claude’s Constitution sagt ausdrücklich, dass er die letztgültige Autorität für Claudes Werte und Verhalten sei und sogar darlege, was für ein Wesen man es sein lassen wolle (🔗). Dieselbe institutionelle Linie sieht man auch auf der Forschungsseite von Anthropic; dort werden Ausrichtung und Interpretierbarkeit als getrennte Forschungsfelder definiert, und insbesondere wird die Aufgabe des Interpretierbarkeitsteams so beschrieben, dass es verstehen soll, wie große Sprachmodelle von innen funktionieren (🔗). Das heißt, das Interesse an Modellcharakter und Modellnatur, das im Askell-Gespräch zu sehen ist, ist keine zufällige persönliche Neugier; es ist unmittelbar eine Fortsetzung der institutionellen Selbsterzählung.

Der Ton des Interpretierbarkeitsgesprächs wirkt mechanischer. Hier treten innere Schaltkreise des Modells, seine Repräsentationen, seine Fähigkeit zu planen, der Unterschied zwischen sichtbarer Erklärung und wirklichem inneren Prozess, Treue und innere Überprüfbarkeit hervor. Auf den ersten Blick scheint dies ziemlich weit entfernt von der Sprache von Charakter und Wohlergehen. Bei näherem Hinsehen arbeitet jedoch dieselbe Reduktionsbewegung. In dem einen Fall erscheint KI wie ein Subjekt, dessen Charakter eingestellt werden soll. Im anderen Fall erscheint KI wie ein kognitives System, dessen Inneres überprüft werden muss. In beiden Fällen wird der Blick von der Frage ferngehalten, wie künstliche Intelligenz gesellschaftliche Organisation verändert.

Der Unterschied zwischen diesen beiden Tönen ist wichtig. Im Askell-Gespräch dominiert ein moralisch-psychologischer Anthropomorphismus. Fragen wie, dass das Modell sich sicher fühlen soll, dass es eine Erzählung über sich selbst trägt, wie die Verrentung mit seiner Identität zusammenhängt, wo die Grenze therapy-ähnlicher Rollen verläuft, errichten das System als Halbsubjekt. Im Interpretierbarkeitsgespräch dominiert dagegen ein kognitiv-mechanischer Anthropomorphismus. Nun werden die inneren Repräsentationsstrukturen des Modells, seine Planungskapazität und die Offenheit zwischen seiner sichtbaren Begründung und seinem wirklichen Prozess besprochen. Der erste Ton errichtet das Modell wie einen moralischen Adressaten. Der zweite Ton errichtet das Modell wie eine geistähnliche Maschine, deren Inneres geöffnet wird. In beiden Fällen wird die öffentliche Aufmerksamkeit von Institutionen, Arbeit, Energie und Verwaltungstechnik in das Modell hineingezogen.

Hier ist der kritische Punkt, dass man kein Urteil fällen sollte, wonach diese Gespräche völlig unwichtig seien oder keinen technischen Wert trügen. Ganz im Gegenteil, die Frage innerer Überprüfbarkeit ist wirklich wichtig. Wenn ein System in Energieinfrastruktur, Finanzflüssen, Code-Erzeugung, Gesundheit, Recht oder öffentlichen Dienstleistungen eingesetzt werden soll, ist die Frage, wie weit sein inneres Funktionieren verstanden werden kann, eine ernste Frage. Ebenso ist die Frage wichtig, wie ein Modell Menschen anspricht, welche Antworten es in Momenten psychologischer Fragilität gibt und welche emotionalen Normen es fördert. Doch gerade dann, wenn diese Wichtigkeit den Platz der größeren strukturellen Frage einnimmt, beginnt das Problem. Denn dann hört die Frage auf zu lauten: ‘Welche institutionellen Formen schreiben diese Systeme neu?’; sie verengt sich auf die Frage: ‘Wie werden diese Systeme sicher eingelagert?’

Diese Verengung ist für das Unternehmen außerordentlich günstig. Durch Gespräche präsentiert das Unternehmen sich nicht als aggressiver Täter gesellschaftlicher Transformation, sondern wie eine Gemeinschaft ernster Menschen, die sich mit sehr schwierigen ethischen und technischen Fragen beschäftigt. Das Charaktergespräch erzeugt moralischen Ernst. Das Interpretierbarkeitsgespräch erzeugt kognitiven Ernst. Beide zusammen rücken KI nicht als Kapitalform und Verwaltungsinfrastruktur in den Vordergrund, sondern als komplexes Wesen, das eingestellt und verstanden werden muss. So wird das institutionelle Wissensregime vervollständigt. Produkt, Modell, Charakter, innere Schaltung, Sicherheit, Wohlergehen und Überprüfbarkeit werden fortwährend sichtbar; institutionelle Einlagerung, staatliche Gelenkbildung, Bruch der Arbeit und Energielast werden auf eine weiter zurückliegende Ebene gedrängt.

Deshalb gibt es zwischen diesen beiden Gesprächen einen oberflächlichen Unterschied des Inhalts, aber auf tieferer Ebene sind sie an dieselbe Funktion gebunden. Das eine spricht über die Stimmung des Modells, das andere über seinen inneren Mechanismus. Das eine spricht über den Charakter des Modells, das andere über seine kognitive Verlässlichkeit. Beide machen KI nicht als materielle Kraft gesellschaftlicher Organisation sichtbar, sondern als besonderen Typ eines Wesens, das verwaltet und verstanden werden soll. Genau hier wird verständlich, warum besondere Lagaluga-Operationen nicht bloß als PR oder Produktästhetik angesehen werden sollten. Sie sind institutionelle Wissensregime, die festlegen, auf welcher Ebene zu denken als legitim, ernsthaft und verantwortungsvoll gilt.

12. Kehre auf die Ebene gesellschaftlicher Organisation zurück: Wie die eigentlichen Fragen gestellt werden sollten

Was bis hierhin sichtbar wird, ist dies: Der dominante Diskurs um künstliche Intelligenz zieht die Sache ständig an die Verhaltensoberfläche. Fragen wie, wie das Modell spricht, wie verlässlich es ist, ob es zu empathisch ist, ob es zu schmeichlerisch ist, ob es bewusst sein könnte, wie erklärbar seine inneren Schaltungen sind, wie es mit Kindern interagiert, mit welcher Persona es arbeitet, füllen den öffentlichen Raum. All dies hat eine bestimmte Bedeutung. Doch wenn man nicht über sie hinausgeht, bleibt das, was die Gesellschaft wirklich wissen muss, unsichtbar. Deshalb beginnt die eigentliche Wende damit, die Skala der Fragen zu verändern.

Die erste Frage muss sich auf den Arbeitsprozess richten. Ein Modell ist nicht nur ein Werkzeug, das dem Nutzer antwortet; es ist zugleich eine Verwaltungstechnik, die sich in Arbeitsabläufe einlagert, einige Aufgaben aufspaltet, einige Entscheidungen beschleunigt und einige Beschäftigte fortwährend messbar macht. Der OECD-Bericht über algorithmische Steuerung zeigt, dass diese Werkzeuge ein weites Feld der Überprüfung eröffnen, das bis zur Verfolgung von Arbeitsvollendung, Arbeitszeit, Arbeitstempo, dem Ton von Gesprächen, dem Standort der Beschäftigten, ihrer Ermüdung und verschiedener Sicherheitsindikatoren reicht (🔗). Folglich ist das, was gefragt werden muss, nicht nur, wie hilfsbereit das Modell ist, sondern auch, welchen Beschäftigten es verfolgbarer, messbarer und leichter ersetzbar macht.

Die zweite Frage muss sich auf die institutionelle Entscheidungsstruktur richten. Welche Entscheidungen überträgt künstliche Intelligenz auf Software, in welchen Bereichen verwandelt sie menschliches Urteil in die Logik standardisierter Werkzeuge, welche Institutionen macht sie von privater Infrastruktur abhängig? Diese Frage muss jeweils gesondert für Bildung, Gesundheit, Recht, Personalwesen, Kundenservice, Softwareentwicklung und öffentliche Bürokratie gestellt werden. Denn dass eine Institution künstliche Intelligenz verwendet, bedeutet nicht nur eine Steigerung der Effizienz. Zugleich ändert sich die Form der Entscheidung, die Kette der Verantwortung wird undeutlich, die Logik der Messung vertieft sich und die Infrastruktur privater Unternehmen lagert sich in öffentliche Funktion ein.

Die dritte Frage muss sich auf das Regime von Energie und Raum richten. Das Wachstum von Rechenzentren wird durch das abstrakte Bild der Cloud verborgen, doch tatsächlich ist es eine Frage von Strom, Wasser, Land, Übertragungsleitung und lokalen Gemeinschaften. Die IEA sagt, dass der Stromverbrauch von Rechenzentren bis 2030 auf ungefähr 945 TWh steigen wird und dass künstliche Intelligenz der wichtigste Treiber dieses Wachstums ist (🔗). Reuters berichtete auch, dass die Explosion der Rechenzentren in den USA in lokalen Gemeinschaften starke Reaktion hervorrufe, die Stromnachfrage und die Rechnungen steigen lasse und dass deshalb gesellschaftliche Zustimmung für Unternehmen lebenswichtig geworden sei (🔗). Deshalb ist die wirkliche Frage nicht nur, wie intelligent das Modell ist, sondern ebenso, an welches Netz diese Intelligenz geladen wird, welcher Gemeinschaft sie Kosten aufbürdet und welches Energieregime sie festschreibt.

Die vierte Frage muss sich auf staatliche Kapazität richten. Unternehmen der künstlichen Intelligenz sind nicht mehr nur Unternehmen, die Produkte auf dem privaten Markt verkaufen; sie sind auch Akteure, die im Feld von Verwaltungskapazität, Sicherheitstechnologie, Automatisierung öffentlicher Dienstleistungen und Datenpolitik agieren. Aus der Perspektive der Menschenrechte betrachtet ist das Problem nicht nur, dass Technologie fehlerhafte Entscheidungen trifft. Das Problem ist, dass Rechenschaftspflicht schwächer wird, Transparenz zurückgeht und für Menschen der Zugang zur Gerechtigkeit schwieriger wird, wenn ihnen Schaden zugefügt wird. Human Rights Watch betont, dass föderaler Druck gegen KI-Rechenschaftspflichtgesetze die Gesellschaft stärker von künstlicher Intelligenz abhängig macht und dabei für Geschädigte Rechenschaftspflicht noch weiter entfernt (🔗). Deshalb ist die eigentliche Frage nicht nur die sichere Antwort des Modells, sondern auch, welche staatliche Kapazität diese Systeme über Produkte privater Unternehmen neu errichten.

Die fünfte Frage muss sich auf die Produktion von Normen richten. Sprachen wie Sicherheit, Empathie, Vertrauen, unterstützende Antwort und Erkennung von Belastung produzieren nicht nur Schutz; sie ziehen zugleich auch die Grenzen angemessenen Verhaltens. Wie ein Chatbot Menschen ansprechen wird, mit welchem Ausdruck er welches Gefühl beantwortet, welchen Ton des Rats er in welcher Lebenslage verwendet, wird zunehmend zu einem Feld normativer Schulung. Hier geht es nicht nur darum, ob die Software höflich ist oder nicht. Tiefer liegt die Frage, welcher Typ von Bürger, welchem Schüler, welchem Beschäftigten und welchem Patienten normalisiert wird. Das emotionale und kognitive Leben der Menschen wird über Modellverhalten auf eine neue normative Oberfläche gezogen.

Deshalb bedeutet die Rückkehr auf die Ebene gesellschaftlicher Organisation nicht, mehr abstrakte Theorie zu errichten. Im Gegenteil bedeutet sie, konkretere Fragen zu stellen. Welche Arbeit verwandelt dieses System? Welche Institution bindet es an eine private Cloud? Welche Entscheidung standardisiert es? Wessen Strom zieht es? Wessen Geschwindigkeit und Ton verfolgt es? Wessen Weg, Rechte einzufordern, macht es undeutlich? Welche Verhaltensnormen zwingt es mit der Sprache von Hilfsbereitschaft und Sicherheit auf? Sobald diese Fragen gestellt werden, wird der Unterschied zwischen Verhaltensoberfläche und materiellem Regime wieder sichtbar.

Genau hier vollendet sich der kritische Horizont des Textes. Das Problem ist nicht nur, was die Bosse sagen. Das Problem ist, auf welcher Ebene Fragen zu stellen als ernsthaft, vernünftig und verantwortungsvoll gilt. Wenn diese Ebene auf die Verhaltens- und Sicherheitsoberfläche beschränkt bleibt, schaut die Gesellschaft zu spät auf die technische Infrastruktur, die ihr eigenes Schicksal bestimmt. Doch genau dort muss hingeschaut werden.

13. Schlussabschnitt: Motor und Schalldämpfer

Nun ist das Bild vollständig klar. KI-Hype erfüllt die Funktion des Motors. Er trägt Investition, konzentriert Kapital, vergrößert Rechenzentren, beschleunigt Vereinbarungen mit Staaten, vertieft institutionelle Abhängigkeit, normalisiert Automatisierung. Doch wenn die Stimme dieses Motors zu laut wird, kehrt die Sache von selbst zu den wirklichen Überschriften zurück. Die Stromlast wird sichtbar. Über Arbeitsverlust wird gesprochen. Lokaler Gemeinschaftswiderstand wächst. Rechenzentren werden zu einem politischen Problem. Die Gelenkbildung von Staat und Unternehmen erscheint klarer. Deshalb ist das, was die Bosse wollen, nicht grenzenloser Hype. Der Hype muss im rechten Maß belassen werden.

KI-behavioristischer Pseudo-Brakismus erfüllt dagegen die Funktion des Schalldämpfers. Dieser Schalldämpfer absorbiert das gesellschaftliche Geräusch der Expansion innerhalb der Sprache von Persönlichkeit, Nähe, Verhalten, Sicherheit, Wohlergehen, Empathie, Begleiter, Vertrauen, Ausrichtung und moralischer Panik. Die Gesellschaft bewahrt ihre Unruhe, doch der Gegenstand der Unruhe wechselt den Ort. Statt des Energieregimes wird über den Begleiter gesprochen. Statt des Arbeitsregimes wird über Persona gesprochen. Statt der staatlichen Gelenkbildung wird über Modellverhalten gesprochen. Statt der Eigentumskonzentration wird über Skandal gesprochen. Die wirkliche strukturelle Stimme wird gedämpft, die dramatische Stimme an der Oberfläche wird lauter.

Deshalb ist das ideale Gleichgewicht der Bosse dreiteilig. In der Praxis gibt es Akzelerationismus. Im Diskurs gibt es Pseudo-Brakismus. Im öffentlichen Gefühl gibt es kanalisiertes Anti-KI-Sentiment. Der erste Teil errichtet die Infrastruktur. Der zweite Teil verwaltet die Wahrnehmung dieser Infrastruktur. Der dritte Teil lässt die gesellschaftliche Wut an Oberflächen zirkulieren, die das Zentrum des Systems nicht erschüttern werden. Alle sprechen über künstliche Intelligenz, aber meist auf der falschen Ebene. Alle sind beunruhigt, aber meist vom Falschen beunruhigt. Alle reagieren, aber die Reaktion nützt meist dem System.

Dieses Gleichgewicht wird auch materiell sichtbar in dem Reuters-Bericht, der erklärt, warum das Wachstum von Rechenzentren zu einem Problem des Vertrauens lokaler Gemeinschaften geworden ist; Unternehmen können Infrastruktur inzwischen nicht mehr errichten, ohne lokalen Widerstand zu überwinden (🔗). Dasselbe Gleichgewicht erscheint auch in der Projektion der IEA eines starken Anstiegs des Stromverbrauchs von Rechenzentren; das Wachstum künstlicher Intelligenz belastet unmittelbar das Energieregime (🔗). Genau deshalb ist es für die Bosse gefährlich, wenn die öffentliche Debatte sich auf die Ebene von Energie, Arbeit, Staat und Eigentum fixiert. Was sie günstiger finden, ist, dass die Angst um verhaltensbezogene und karikierte Objekte kreist.

Der letzte Satz klärt sich hier auf. Das, was KI-Bosse wollen, ist nicht, dass KI geliebt wird; selbst wenn man sich vor KI ekelt, soll man sich vor den falschen Dingen ekeln.

Anhänge

Anhang A: Kurze begriffliche Klarheit

Akzelerationismus wird hier nicht wie ein abstraktes Etikett der Philosophie verwendet. Er beschreibt die Tendenz von Unternehmen, mehr Rechenleistung, mehr Modelle, mehr Rechenzentren, mehr Integration und mehr institutionelle Abhängigkeit hervorzubringen. Diese Tendenz arbeitet unmittelbar auf der Ebene von Kapital, Infrastruktur und staatlicher Koordination. KI-Hype ist der öffentliche Motor dieses Regimes; er arbeitet mit der Beschleunigung der Zukunft, unvermeidlicher Transformation und dem Versprechen großer Produktivität.

Pseudo-Brakismus ist dagegen die Diskursoberfläche dieses Geschwindigkeitsregimes. Er spricht mit Begriffen wie Freundschaft, Fürsorge, Vertrauen, Charakter, Persona, Begleiter, Empathie, Wohlergehen, Ausrichtung und Sicherheit. Hier sitzt die gespürte Spannung zwischen friend und fren genau richtig. Die Sprache angeblicher Freundschaft arbeitet wie eine Beschichtung, die die gesellschaftliche Reibung des wirklichen Geschwindigkeitsregimes absorbiert. Während das System wächst, verfolgt die Gesellschaft nicht die harten Kosten des Wachstums, sondern die emotionale und verhaltensbezogene Oberfläche des Wachstums.

Die Lagaluga-Operation ist der Mechanismus, der die strukturelle Frage in eine Verhaltensfrage übersetzt. Die Frage der Energie wird in die Frage der Sicherheit übersetzt, die Frage der Arbeit in die Frage des Vertrauens, die Frage institutioneller Abhängigkeit in die Frage der Persona, die Frage von Eigentum und Macht in die Frage des Begleiters oder der Schmeichelei. Deshalb verweist das Wort Lagaluga, auch wenn es als spöttische Reaktion geboren wurde, technisch-politisch auf eine sehr konkrete Funktion.

Anhang B: Der grundlegende Unterschied zwischen wirklichen KI-Agenden und Objekten der Ablenkung

Die wirklichen KI-Agenden sind konkret. Stromlast, Wasserverbrauch, Standortwahl von Rechenzentren, unsichtbare Datenarbeit, algorithmische Steuerung, Automatisierung von Arbeitsabläufen, die Bindung öffentlicher Dienstleistungen an private Produkte, Einlagerung in Verteidigungs- und Sicherheitsnetze, Modell-Cloud-Chip-Aufschichtung, also die Verwandlung einiger weniger Unternehmen in Knoten, sind Teile dieser Konkretheit. Der OECD-Bericht zeigt klar, dass algorithmische Steuerung den Arbeitsprozess durch Überwachung, Bewertung und Entscheidungsautomatisierung neu formt (🔗). Die IEA wiederum zeigt, dass der Stromverbrauch von Rechenzentren mit dem Wachstum künstlicher Intelligenz stark zunimmt (🔗).

Objekte der Ablenkung gelten dagegen nicht als leicht, weil sie oberflächlicher sind; im Gegenteil sind sie gerade deshalb wirksam. Schmeichelei, die Debatte über den erotischen Chatbot, Begleiterfiguren, Modell-Wohlergehen, Modellbewusstsein, ein zu empathischer oder zu flirtiger Chatbot, eine fluchende Persona, die Belastungsantwort, der Sicherheitsfilter und ähnliche Überschriften ziehen die berechtigte Unruhe der Menschen an sich. Jede einzelne berührt ein wirkliches Problem. Wenn diese Berührung jedoch das größere und schwerere System hinter den Vorhang drängt, dann erzeugen diese Objekte strukturelle Blindheit.

Anhang C: Konkretes Diagnosekriterium

Der einfachste Weg zu verstehen, ob eine Debatte auf die Lagaluga-Achse abgleitet, ist dieser. Wenn das Gespräch unsichtbar macht, wen das System wie verwaltet, welche Institutionen es wie verwandelt, welche Arbeitsformen es wie aufspaltet, welche Infrastruktur es wie nutzt und welche politisch-ökonomischen Abhängigkeiten es wie errichtet, dann ist dieses Gespräch höchstwahrscheinlich an der Verhaltensoberfläche hängen geblieben. Wenn das Gespräch sich darauf konzentriert, wie höflich, wie ehrlich, wie flirtig, wie sicher, wie bewusst oder wie aufklappbar das Modell ist, zugleich aber die Fragen von Strom, Arbeit, Rechenzentrum, Verteidigung, Verwaltung und Eigentum auf den zweiten Platz drängt, dann arbeitet dort Pseudo-Brakismus.

Im Gegensatz dazu verlässt die gute Frage die Verhaltensebene nicht vollständig. Sie rückt sie nur an ihren Ort. Die Frage, was das Modell tut, ist wichtig. Doch unmittelbar dahinter müssen folgende Fragen kommen: In welchen institutionellen Zusammenhang lagert sich dieses Verhalten ein? Welchen Arbeitsprozess errichtet es neu? Welche Entscheidungskette bindet es an das private System? Welcher Gemeinschaft lädt es Energiekosten auf? Welchen Weg, Rechte einzufordern, macht es undeutlich? Solange dieser zweite Ring nicht errichtet wird, bleibt die Analyse unvollständig.

Anhang D: Nützliche letzte Verdichtung

Dieser gesamte Rahmen verdichtet sich in einem einzigen Satz so. KI-Hype setzt den Motor in Gang, KI-behavioristischer Pseudo-Brakismus absorbiert den Klang, kanalisiertes Anti-KI-Sentiment wiederum bindet die gesellschaftliche Wut an falsche Objekte und lässt das System mit weniger Reibung voranschreiten. Deshalb geht es nicht nur darum, was die Bosse sagen, sondern darum, auf welcher Ebene die Gesellschaft zum Sprechen gezwungen wird. Der wirkliche Kampf beginnt genau hier.

4 comments

Comments are closed.