Ett allvarligt problem – och en bekant reaktion EU-kommissionen har inlett en utredning av plattformen X efter att den integrerade AI-chatboten Grok genererat sexuellt explicita bilder, inklusive material som uppges likna barn. Uttalandena från Bryssel har varit starka och känslomässiga. Kommissionens talesperson beskriver innehållet som ”avskyvärt” och ”olagligt”.

Att sexuella övergrepp mot barn – även i digital form – är ett grovt brott råder det ingen tvekan om. Plattformar som tillåter eller sprider sådant innehåll ska ingripa snabbt och samarbeta med rättsväsendet. Det gäller X likväl som alla andra aktörer.

Men EU:s agerande väcker också en annan, mer strukturell fråga: varför är det just EU som gång på gång kliver fram som den globala nätmoralens tillsynsmyndighet?

Grok som katalysator Grok, utvecklad av xAI och integrerad i X, marknadsförs som en mer ”otämjd” AI-modell än sina konkurrenter. I samband med lanseringen av bildfunktionen ”Grok Imagine” och ett så kallat ”spicy mode” har verktyget kunnat användas för att skapa sexualiserade bilder av verkliga personer – något som snabbt lett till internationell kritik.

X uppger att företaget tar anklagelserna på allvar och att man tar bort olagligt material, stänger konton och samarbetar med myndigheter. Det är i sig inget kontroversiellt.

Det intressanta är snarare hur snabbt frågan i EU rör sig från konkret brottsbekämpning till bredare normativa anspråk på hur teknik ska utformas, begränsas och styras.

EU:s återkommande mönster Utredningen av X passar väl in i ett större mönster. Under de senaste åren har EU steg för steg utvidgat sin roll från regelgivare till något som närmar sig en digital sedlighetsrotel.

Exemplen är många:

  • Chat Control, där total genomsökning av privat kommunikation motiveras med barns skydd.
  • DSA, där plattformar åläggs långtgående ansvar för användares yttranden, med otydliga gränser mellan olagligt innehåll och politiskt oönskat innehåll.

Återkommande krav på ”ansvarsfullt språk”, ”korrekt information” och ”skydd mot skadliga narrativ”.

I samtliga fall finns ett legitimt problem i botten. Men lösningen tenderar att bli centraliserad kontroll, förhandscensur och ett växande administrativt inflytande över det öppna samtalet.

Moral, makt och teknik I retoriken kring Grok blandas juridik, etik och estetik. Det talas inte bara om vad som är olagligt, utan om vad som är ”äckligt”, ”oacceptabelt” och ”inte har någon plats i Europa”. Det är laddade formuleringar som signalerar något mer än rättstillämpning – de signalerar värdeöverhöghet.

Här uppstår en spänning. För när gränsen mellan brottsbekämpning och moralisk normering suddas ut, blir frågan vem som i praktiken avgör:

  • vilka tekniska funktioner som får existera
  • vilka risker som är acceptabla
  • vilka plattformar som anses ”problematiska”

Att det just är Elon Musk och hans plattform som återkommande hamnar i skottlinjen gör inte frågan mindre politiskt laddad.

Skydd eller kontroll? EU framställer sig gärna som den vuxne i rummet när USA, Kina och privata techbolag driver utvecklingen. Men i praktiken har unionen också utvecklat ett starkt intresse av att vara den instans som sätter gränserna för vad som får sägas, visas och byggas.

Det kan mycket väl vara så att Grok-fallet leder till nödvändiga tekniska skärpningar. Men varje sådan process stärker också EU:s självbild som global normgivare – inte bara för lag, utan för moral.

Det är just denna dubbla roll som gör utredningen pikant.

En större fråga än Grok Frågan handlar därför inte bara om en AI-funktion eller ett ”spicy mode”. Den handlar om vilken modell som ska dominera framtidens digitala offentlighet:

  • decentraliserad och riskbenägen, med efterhandsansvar
  • eller centraliserad, förhandsreglerad och normstyrd

EU har tydligt valt den senare vägen. Grok-utredningen är inte ett undantag, utan ännu ett steg i samma riktning.

Och det är just därför den väcker uppmärksamhet långt bortom det enskilda fallet.