ØU mener, at EUs styring og kontrol med meninger og synspunkter er gået for langt. Vi mener, at det er en trussel mod demokrtiet, at EU i stigende grad forsøger at styre meninger og synspunktet – og dermed begrænse en åben demokratisk debat. Nedenfor en gennemgang af de gældende regler og EU’s regler, som har udviklet sig til et tag-selv-bord for politikerne omkring, hvor grænserne for ytringsfriheden skal være, og hvilke meninger der er i orden.
EU regulerer nemlig ikke længere bare ulovligt indhold – politikerne er i stigende grad i gang med at regulere selve arkitekturen omkring vores ytringer: hvem der bliver set, hvem der overvåges, og hvem der definerer sandheden. Det kan være nødvendigt i en digital tidsalder – men når kriterierne bliver vage, og håndhævelsen ligger hos forvaltningen og Big Tech, er vi tæt på punktet, hvor reguleringen selv bliver et demokratisk problem.
EU har netop pålagt Musks X en stor bøde.
Bøden bunder i EUs krav om, at store platforme skal håndtere “systemiske risici” fra lovligt indhold (desinformation, påvirkningskampagner, polarisering, “skadeligt” indhold for børn mv.), der betyder, at platformene får pres for at omdesigne algoritmer, så bestemte typer ytringer får mindre reach. Meget af denne regulering sker på baggrund af bløde, politisk farvede vurderinger af, hvad der er “skadeligt for demokratiet”
Dermed flytter vi os fra en model med: “Retten siger, hvad der er forbudt – alt andet er frit” til en model, hvor: “Retten (og tilsynet) siger også, hvad der er uønsket, selv om det er lovligt – og platformene skal handle derefter.”
Det kan sagtens være velment – men institutionelt øger det risikoen for politisk bias i moderationen, og systematisk nedprioritering af bestemte strømninger (fx stærkt systemkritiske, populistiske eller “anti-EU”-synspunkter), uden at de er ulovlige.
Gennemgang af problemstillingen, med research bistand fra chatgpt
Hvordan kan man skelne mellem “sund” og “usund” regulering?
En enkel tommelfingerregel:
Sundt for et demokrati, når begrænsninger:
Beskytter andre rettigheder (liv, sikkerhed, privatliv)
Er klare, snævre og forudsigelige (du kan som borger læse loven og forstå grænsen)
Er fastsat af lovgiver og domstole, ikke i lukkede processer hos myndigheder eller private virksomheder
Har stærke garantier for klage, domstolsprøvelse og offentlig debat
Usundt for et demokrati, når begrænsninger:
Rammer lovlige ytringer med henvisning til uklare begreber (“skadelig”, “uansvarlig”, “uønsket”)
I praksis bestemmes af en lille kreds (myndigheder + big tech) uden gennemsigtighed
Skaber frygt og usikkerhed (“bedst at lade være med at skrive det her – man ved aldrig…”)
Systematisk favoriserer bestemte politiske eller ideologiske perspektiver
—–
Det kan være sundt for et demokrati at have begrænsninger i ytringsfriheden – så længe de er snævre, klart definerede og knyttet til beskyttelse af andre rettigheder og den demokratiske proces (fx forbud mod voldstrusler, terrorpropaganda, CSAM). Men i det øjeblik man begynder at regulere lovlige ytringer via platformdesign, algoritmer og vage begreber om “skadelig tale”, bevæger man sig over i et felt, hvor begrænsningerne selv kan blive en trussel mod pluralisme og tillid – og dermed usundt for demokratiet.
Fem spørgsmål til politikerne og EU om regulering af ytringsfriheden og demokrati;
Hvor går grænsen mellem ulovligt indhold og “uønsket” lovligt indhold?
Kan regeringen præcist forklare, hvilke typer lovlige ytringer der i praksis kan blive nedprioriteret, mærket eller begrænset under DSA og beslægtede regler – og hvem der træffer den vurdering?Hvem har i sidste ende magten over sandhed og “desinformation”?
Når platforme skal reducere “systemiske risici” fra desinformation og skadeligt indhold, hvor meget reelt skøn overlades så til Kommissionen, til nationale tilsyn og til private tech-selskaber – og hvordan sikres politisk neutralitet?Hvordan undgår vi masseovervågning forklædt som børnebeskyttelse?
Kan regeringen garantere, at CSAM/“chat control”-regler ikke fører til generel scanning af almindelige borgeres private og krypterede kommunikation – og hvis ikke, hvordan hænger det sammen med grundlæggende rettigheder og kildebeskyttelse?Skaber EU et A- og B-hold blandt medier og afsendere?
Med EMFA, DSA og reglerne for politisk reklame – får etablerede medier, “trusted flaggers” og større aktører i praksis lettere adgang til reach og indflydelse end små, nye og systemkritiske medier og NGO’er? Hvis ja: er det en bevidst politisk prioritering?Hvor meget selvcensur accepterer regeringen som “biprodukt”?
Er man fra dansk side villig til at erkende, at komplekse regler, høje bøder og uklare kriterier for “skadeligt” indhold vil få både platforme, journalister og borgere til at spille mere sikkert – og mener regeringen, at den risiko for selvcensur er en pris, der er værd at betale?
———————————————
Overblik: EU-reglerne under DSA forbyder ikke bestemte meninger, men presser platforme til at fjerne indhold, der allerede er ulovligt, og til at dæmpe/formindske lovligt men “skadeligt” indhold (fx desinformation omkring valg) gennem algoritmer, labels m.m. Problemstillingen omftter, hvad det sidste punkt omftter, og hvem der skl regulere det.
1. Ulovlig tale, som DSA forventer fjernet hurtigt
1.1. Terrorpropaganda og opfordring til terror
Type ytring:
Eksempel: videoer, opslag og memes der hylder eller opfordrer til terrorangreb, eller som deler propaganda fra grupper på EU’s terrorliste.
Hvor står det?
DSA definerer “illegal content” som alt, der strider mod EU- eller national ret, uanset emne – herunder terrorlovgivning. eu-digital-services-act.com
Efter Hamas’ angreb i oktober 2023 sendte Kommissionen en formel anmodning til X (Twitter) om oplysninger om håndteringen af “terrorist and violent content and hate speech” under DSA’s kriseregler. Tech Policy Press+1
Konkrete eksempler på ytringer, EU ikke vil have bredt ud:
En video, der glorificerer et konkret terrorangreb og opfordrer til flere angreb.
Kanaler der systematisk deler rekrutteringsmateriale for terrorgrupper.
DSA i sig selv kriminaliserer ikke dette – det er allerede ulovligt. Men DSA tvinger de store platforme til at have effektive procedurer, så den slags fjernes hurtigt, når det opdages eller anmeldes.
1.2. Ulovlig hadefuld tale (racisme mv.)
Type ytring:
Offentlige ytringer, der opfordrer til vold eller had mod personer/grupper på grund af fx race, religion, etnicitet, seksuel orientering osv. – dvs. den del af “hate speech”, som er kriminaliseret i EU- og national ret.
Hvor står det?
EU’s rammeafgørelse om racisme og fremmedhad kræver, at medlemsstaterne kriminaliserer offentlig opfordring til vold/hat mod grupper. DSA henviser til “illegal content” som alt, der bryder sådan lovgivning. eu-digital-services-act.com
Den reviderede Code of Conduct+ on Countering Illegal Hate Speech Online er nu integreret i DSA-rammen og beskriver, at alt indhold, der falder ind under national lovgivning om ulovlig hate speech, skal behandles som sådant online. Digital Strategy+1
Konkrete eksempler:
“Alle muslimer bør smides ud / slås ihjel” i en EU-medlemsstat, hvor det er strafbar opfordring til had/vold.
Et opslag, der målretter en etnisk minoritet og eksplicit opfordrer til at angribe deres hjem eller virksomheder.
Her er pointen: Det er ikke “bare” krænkende tale – det er strafbart. DSA kræver, at platforme har effektive notice-and-action-systemer til at få det fjernet.
1.3. Børnemisbrug, ulovlig handel, doxxing m.m.
DSA’s meget brede definition af illegal content betyder, at følgende også er typer af ytring/indhold, EU ikke ønsker offentligt på platforme: eu-digital-services-act.com
Deling af børnepornografisk/børneseksuelt materiale.
Salg/annoncering af ulovlige varer (våben, hårde stoffer osv.).
Doxxing og alvorlige trusler, hvis de er strafbare efter national ret.
Ophavsretskrænkende materiale i det omfang det er ulovligt (fx systematisk piratkopiering).
DSA gør ikke alt dette “nyt ulovligt”, men skærper platformenes ansvar for at reagere, når det ulovlige indhold er der.
1.4. Ulovlig desinformation (fx valgmanipulation)
Type ytring:
Desinformation bliver først “ulovlig”, når den bryder anden lov – typisk valglove, ærekrænkelser, forbrugerbeskyttelse osv.
Ekspertanalyser fremhæver fx, at voter suppression (målrettede falske budskaber om, at valg er aflyst eller datoen er ændret) eller udenlandsk valgindblanding kan være ulovlig desinformation, som falder ind under DSA’s kategori “illegal content”. EU DisinfoLab+1
Konkrete eksempler:
Betalte annoncer dagen før et valg: “Valglokalerne er lukket i morgen – stem i stedet online via dette uofficielle link.”
Koordinerede kampagner fra udenlandske aktører, der bryder nationale regler om valgkamp og finansiering.
Her vil DSA lægge pres på platforme for både fjernelse (hvis ulovligt) og for, at systemerne designes, så den slags ikke nemt kan spredes ukontrolleret.
2. Lovlig, men “skadelig” tale – hvor EU vil dæmpe udbredelsen
Det kontroversielle ved DSA ligger mest i reguleringen af helt lovlige ytringer, som anses for at udgøre “systemiske risici” – særligt for demokrati, folkesundhed og børns trivsel.
2.1. Systemiske risici: civic discourse, valg og sikkerhed
Artikel 34 kræver, at very large online platforms (VLOPs) hvert år analyserer og reducerer risici fra deres tjenester, herunder: eu-digital-services-act.com
(a) spredning af ulovligt indhold
(b) negative effekter på grundlæggende rettigheder, herunder ytringsfrihed og mediepluralisme
(c) negative effekter på civic discourse og electoral processes samt offentlig sikkerhed
(d) negative effekter relateret til kønsbaseret vold, folkesundhed, beskyttelse af mindreårige og mental sundhed
Disse risici omfatter netop lovligt indhold, som samlet set kan skabe skade, fx massiv politisk desinformation, polarisering eller ekstremt indhold over for børn. CMPF+1
Konkrete typer af ytringer, der typisk er lovlige, men som DSA vil have nedbragt via algoritmer m.m.:
Konspirationsteorier og valgdesinformation
Fx store mængder indlæg om, at “EU-valget er fuldstændig manipuleret, stemning nytter intet”, som i sig selv kan være lovlige men undergraver tilliden til valgprocessen.
Kommissionen og European Board for Digital Services beskriver DSA som ramme til at håndtere disinformation omkring valg og beskytte civic discourse, netop gennem risiko-analyser og mitigation. Digital Strategy+1
Typisk DSA-reaktion: ikke nødvendigvis sletning, men
nedgradering i algoritmer,
faktatjek-labels,
begrænsning af annonceindtjening,
mere gennemsigtighed om hvem der står bag.
AI-genererede deepfakes i politik
Fx en deepfake-video, der viser en EU-politiker “indrømme valgsvindel” – lavet så overbevisende, at den kan påvirke valg.
Under den nye European Democracy Shield strategi betragtes AI-manipuleret valgindhold som en central trussel, og platforme opfordres (under DSA) til at identificere og mærke AI-genereret eller manipuleret indhold. Reuters+1
Typisk DSA-reaktion: krav om mærkning, begrænsning af anbefalinger, hurtig respons under “crisis protocols”.
Koordinerede udenlandske påvirkningskampagner
F.eks. netværk af falske konti, der systematisk pumper polariserende, men lovlige, politiske budskaber ud før et valg.
Kommissionens taler om DSA fremhæver netop risikoen ved udenlandsk desinformation og hybrid-trusler mod demokratiske institutioner. European Commission+1
DSA-vinkel: Platforme skal opdage og begrænse systemiske kampagner (fx bot-netværk), også når de enkelte tweets/posts er lovlige.
Ekstrem, men lovlig, politisk agitation
Hårde anti-indvandrings-budskaber, der lige præcis holder sig på den rigtige side af straffelovens hate-speech-bestemmelser, men som algoritmisk kan skabe stærk polarisering.
Forskere og jurister påpeger, at DSA’s risikobegreb er meget bredt og kan omfatte “det meste af det, vi sætter pris på” i demokratisk debat – også lovlig og legitim politisk aktivisme. Taylor & Francis Online+1
Praktisk effekt: EU forventer ikke, at sådanne ytringer forbydes, men at platformen kan blive pålagt at
ændre anbefalingsalgoritmer,
åbne for mere bruger-kontrol (fx mulighed for kronologisk feed),
øge synligheden af kvalitetsmedier osv.
3. Hvad siger DSA selv om ytringsfrihed?
Det fremgår faktisk eksplicit, at DSA også skal beskytte ytringsfriheden:
Artikel 34(1)(b) nævner udtrykkeligt, at platformenes risikovurdering skal tage hensyn til negative effekter på grundlæggende rettigheder, herunder “freedom of expression and information, including the freedom and pluralism of the media” (Artikel 11 i Charteret). eu-digital-services-act.com
I præambel 9 skriver lovgiverne, at formålet er at håndtere ulovligt indhold og de “societal risks”, som spredning af desinformation kan skabe, ”within which fundamental rights enshrined in the Charter are effectively protected”. EUR-Lex+1
Det betyder i teorien, at Kommissionen også skal gribe ind, hvis platformenes moderation eller algoritmer selv begrænser legitim ytringsfrihed og mediepluralisme.
4. Den politiske konflikt om “free speech”
Der er dog en klar politisk konflikt om, hvor langt DSA reelt rækker:
EU har åbnet formelle sager mod X (Musk) om bl.a. risikohåndtering, indholdsmoderation, algoritmer og adgang for forskere – og har nu givet den første store bøde på 120 mio. € for brud på DSA’s transparenskrav. Digital Strategy+1
Trump-administrationen i USA har lanceret en kampagne mod DSA og kalder den en trussel mod ytringsfrihed og amerikanske tech-firmaer, mens EU svarer, at loven handler om ulovligt og skadeligt indhold, ikke om at forbyde politiske meninger. Wall Street Journal
Samtidig kritiserer NGO’er og forskere DSA fra den modsatte side: de mener, at platformenes risikovurderinger fokuserer for snævert på “fake news”, og at man ikke går nok efter de dybere strukturelle problemer i algoritmer og forretningsmodeller (filterbobler, polarisering, marginalisering af civilsamfund osv.). liberties.eu+1
Ikke-beskyttet ytringsfrihed (allerede ulovlig tale)
Her vil EU helt klart ikke have indholdet “ud i offentligheden”, og DSA skærper fjernelses-presset:Terrorpropaganda og opfordring til terror. Tech Policy Press+1
Strafbar hadefuld tale (opfordring til vold/hat mod beskyttede grupper). Digital Strategy+1
Børnemisbrugsmateriale, ulovlig handel, alvorlige trusler og lign. eu-digital-services-act.com
Ulovlig desinformation (voter suppression, udenlandsk ulovlig valgindblanding osv.). EU DisinfoLab+1
Beskyttet, men “uønsket” tale (lovlig, men skadelig/højrisiko)
Her ønsker EU typisk ikke fuld fjernelse, men mindre reach og mere kontrol via platformenes design:Massive kampagner med politisk desinformation og konspirationsteorier om valg. Digital Strategy+1
AI-genererede deepfakes og manipuleret indhold i politiske sammenhænge. Reuters+1
Koordinerede udenlandske påvirkningskampagner, også når de enkelte budskaber er lovlige. European Commission+1
Ekstrem, men lovlig, politisk agitation, hvor risikoen vurderes at ligge i algoritmisk forstærkning og polarisering. Taylor & Francis Online+1
Det er i den sidste kategori, debatten om reel ytringsfrihed og politisk pluralisme bliver mest interessant – for her flytter DSA fokus fra “må du sige det?” til “hvor meget skal platformen hjælpe med at sprede det?”.
Det nye er, at EU går fra “det her må ikke findes” til “platformene skal indrettes, så visse typer indhold (også lovligt) ikke får samme reach, og myndigheder kan kigge dem i kortene”.
Her går DSA længere – selv når indholdet er lovligt?
“Systemiske risici” – også fra lovlig tale
De allerstørste platforme (VLOPs/VLOSEs) skal årligt lave risikovurderinger, der ikke kun handler om illegal content, men også om negative effekter af helt lovligt indhold: eu-digital-services-act.com+2cms-digitallaws.com+2
De fire kategorier af systemiske risici er:
Spredning af ulovligt indhold
Negative effekter for grundlæggende rettigheder
– herunder ytringsfrihed og mediepluralismeNegative effekter på civic discourse, valgprocesser og offentlig sikkerhed
Negative effekter ift. kønsbaseret vold, folkesundhed, beskyttelse af mindreårige og fysisk/mental trivsel
Det betyder:
Platformen skal se på, om lovligt indhold – fx konspirationsteorier, valgdesinformation, selvskade-indhold, ekstremt polariserende indhold – samlet set skaber “systemisk risiko”.
Pligt til at dæmpe eller omdesigne – ikke kun fjerne
Artikel 35 siger, at når en VLOP har identificeret systemiske risici, skal den iværksætte afbødende tiltag. Det kan være: eu-digital-services-act.com+2lw.com+2
ændringer i algoritmer (recommender systems),
ændringer i brugergrænsefladen (mindre “del”-knap, friktion osv.),
styrket moderationspraksis,
samarbejde med “trusted flaggers”, faktatjekkere m.m.
Altså:
Selv hvis et opslag om fx vacciner, migration eller EU-valget er lovligt, kan platformen få regulatorisk pres for at:
nedprioritere det i algoritmen,
mærke det,
gøre det sværere at dele,
demonetisere det.
Det er her, DSA i praksis rækker længere end bare ulovligt indhold.
Disinformation-kodeks bliver en del af DSA
Den tidligere frivillige Code of Practice on Disinformation er i 2025 blevet formelt integreret som en Code of Conduct under DSA. Digital Strategy+2Digital Strategy+2
I kodeksen forpligter platforme sig bl.a. til at:
demonetisere “harmful false and/or misleading information”,
ændre algoritmer for at reducere udbredelsen af disinformation,
give brugere værktøjer til at flagge “harmful false or misleading” indhold,
samarbejde med fact-checkers.
Langt det meste af det indhold, der rammes her, er lovligt.
Det nye er, at EU nu bruger DSA til at gøre denne “soft law” til en compliance-standard, som Kommissionen måler dem på.
Fokus på valg, politiske processer og offentlig debat
Kommissionen beskriver selv DSA som et redskab til at håndtere disinformation omkring valg og beskytte demokratiet. De første samlede risikorapporter peger netop på “recurrent risks” i relation til civic discourse, valg og misinformation på VLOPs. Digital Strategy+2ISD+2
Her er der tre lag:
Ulovlig valgmanipulation (fx organiserede voter-suppression-kampagner) – det skal fjernes.
Lovlig, men stærkt misvisende valgindhold – her forventes nedrangering, labels, transparens mv.
Algoritmisk forstærkning: Hvis platformens design potentielt skubber demokratisk debat i en ekstrem retning, kan det i sig selv vurderes som en systemisk risiko.
Så DSA går fra “fjern det der er strafbart” til “ændr hele systemdesignet, så visse typer lovlig tale ikke får samme gennemslag”.
Indirekte regulering af ytringer via algoritmer og annoncer
DSA regulerer ikke bare indhold, men også rammerne for synlighed og finansiering:
VLOPs skal gøre deres recommender systems gennemsigtige og tilbyde brugerne mindst én anbefalingsmodel uden profilering (altså mindre målretning efter brugerens adfærd). lw.com+1
Der er begrænsninger på målrettet annoncering (bl.a. forbud mod targeted ads til børn og mod brug af særlige følsomme persondata som politiske holdninger, religion mv.). lw.com+1
Platformene skal have annoncedatabaser, hvor alle politiske/issue-ads kan ses og analyseres.
Ingen af de regler forbyder en given mening, men de styrer, hvordan og hvor aggressivt den kan markedsføres og forstærkes.
“Dark patterns” og tillid til afsender – X-sagen som eksempel
Den første store DSA-bøde til X (tidl. Twitter) handler ikke om terror eller CSAM, men om: The Verge+2AP News+2
vildledende blå flueben (alle kan købe “verificeret”),
manglende annoncentransparens,
manglende adgang for forskere til data.
EU kalder det “deceptive design”/dark patterns, fordi brugere kunne tro, at betalte konti var reelt verificerede. Det ses som en risiko for manipulation og scams, især i politiske kontekster.
Igen:
Ingen konkrete tweets/ytringer gøres ulovlige, men EU griber ind i hele opsætningen, der giver bestemte ytringer (fra blå-tjek-konti) mere troværdighed og reach.
Hvor går EU videre på børneseksuelt materiale (CSAM)?
Her er det især den særskilte CSAM-forordning (ikke DSA), der går videre end “det er ulovligt at dele billeder af børn”.
5.1. Fra “fjern det” til “forhindre, at det overhovedet dukker op”
Det foreslåede regelsæt om børneseksuelt materiale (CSAR) lægger op til, at udbydere skal: EUR-Lex+1
vurdere risikoen for, at deres tjenester misbruges til CSAM,
tage proaktive risikobegrænsende tiltag,
og kunne pålægges fjernelses- og blokering-foranstaltninger af nationale myndigheder. Consilium+1
Tidligere versioner lagde op til meget vidtgående scanning af private beskeder (“chat control”) – også i krypterede services – for at finde både CSAM og grooming. Det er netop det, der anses som et brud med privatlivs- og ytringsfrihedsrettigheder og har mødt stort politisk modstand. Wikipedia+2Reuters+2
Retsligt set går det langt videre end:
“Det er strafbart at dele CSAM, så vi fjerner det, når vi opdager det.”
I stedet bliver logikken:
“Alle skal potentielt overvåges, så vi kan opdage, hvis nogen måske deler CSAM.”
Den seneste kompromisløsning i Rådet går noget væk fra obligatorisk scanning, men holder fast i krav om risikovurdering og proaktive tiltag hos udbydere. Consilium+1
Så hvor er den reelle “overbygning” på de allerede ulovlige ytringer?
Hvis vi koger det ned i forhold til dine eksempler:
For terror-opfordring (allerede ulovligt):
Før: Straffelov + terrorlovgivning → stat/anklagemyndighed kan retsforfølge, og indhold kan fjernes.
Med DSA:
Platforme skal have systematiske procedurer for at opdage og fjerne terrorindhold hurtigt (notice-and-action, trusted flaggers). lw.com+1
I VLOP-regi skal de vurdere, om deres algoritmer, trending-funktioner osv. forstærker radikalisering, og om nødvendigt ændre designet (fx ikke anbefale visse typer indhold til bestemte brugergrupper). eu-digital-services-act.com+2cms-digitallaws.com+2
For børneseksuelt materiale (allerede ulovligt):
Før: Straffelov + eksisterende EU-regler → obligations to fjerne når det opdages, rapportere til myndigheder m.m.
Med DSA + kommende CSAM-forordning:
DSA: krav om bedre notice-and-action, transparens og risikovurdering ift. hvordan platformen misbruges til CSAM. lw.com+1
CSAM-forordningen: mulighed for at pålægge meget vidtgående proaktive scanninger og risikobaserede sikkerhedsforanstaltninger, inkl. teknologier der i praksis kan gribe ind i privat kommunikation. Wikipedia+1
Bundlinjen
Nej, DSA opfinder ikke nye “forbudte meninger” ud over terroropfordring, CSAM osv.
Ja, EU går længere ved at:
Tvinge platformene til at ændre systemdesign, algoritmer og forretningsmodeller for at reducere systemiske risici – også fra lovlig tale. eu-digital-services-act.com+2cms-digitallaws.com+2
Gøre soft-law om disinformation og hate speech til de facto standard, der måles og håndhæves under DSA. Digital Strategy+2MediaLaws+2
På CSAM-området at bevæge sig (i det mindste i de oprindelige forslag) mod generaliseret scanning af kommunikation, hvilket rækker langt ud over “fjern det ulovlige indhold, når du ser det”. Wikipedia+2Reuters+2
Nogle begrænsninger er nødvendige for et demokrati – men jo længere man går ud over det snævre, klart ulovlige, jo større bliver risikoen for, at begrænsningerne selv bliver et demokratisk problem.
Hvor bliver begrænsningerne problematiske?
Problemet opstår, når man går fra:
“Du må ikke opfordre til vold”
til
“Vi vil nedtone / begrænse udbredelsen af lovlige ytringer, fordi vi vurderer dem som skadelige.”
Her er nogle klassiske faretegn:
Elastiske begreber (“skadeligt”, “desinformation”, “had”)
Hvis staten eller platforme får meget fri hånd til at definere, hvad der er “skadeligt” eller “misinformerende”, kan det:ramme uønskede synspunkter frem for egentligt farligt indhold
skabe usikkerhed hos borgere (“må jeg sige det her?”) – en chilling effect
Magt-koncentration
I dag ligger den praktiske magt ofte hos:staten (regler, bøder, tilsyn)
nogle få kæmpeplatforme (algoritmer, moderationsregler)
Hvis begge trækker i samme retning, kan man få en uofficiel “stats-godkendt sandhed” i det digitale rum – ikke via formelle forbud, men via algoritmisk nedprioritering, demonetisering og labels.
Manglende gennemsigtighed og klageadgang
Begrænsninger bliver mere problematiske, når:du ikke ved, hvorfor dit indhold er nedtonet/slettet
der ikke er en klar, uafhængig klagevej
kriterierne er uklare eller ændres politisk fra sag til sag
Glidebanen fra “ekstremt” til “kontroversielt”
Historisk ser man ofte, at regler, der starter med at ramme det mest ekstreme (terror, nazisme), gradvist bruges mere bredt:først mod åbenlyse ekstremister
så mod “radikale” miljøer generelt
til sidst mod generelt systemkritiske eller bare upopulære synspunkter
Det er her, man realistisk kan tale om, at begrænsningerne bliver usunde for et demokrati.
3. Hvor passer DSA-typen regulering ind i det billede?
Hvis vi kobler til DSA (og beslægtet EU-regulering), kan man groft sige:
Demokrati-sundt element
Krav om transparens fra de største platforme (hvordan virker algoritmerne, hvem betaler for politiske annoncer?)
Krav om effektive systemer mod klart ulovligt indhold (terror, CSAM, ulovlig hate speech).
Fokus på at begrænse udenlandsk manipulation af valg og information.
Alt det er relativt let at forsvare ud fra et klassisk, liberal-demokratisk synspunkt.
Flere af de nye EU-regler bevæger sig i retning af, at selve reguleringen kan blive et demokratisk problem – ikke fordi den åbenlyst forbyder bestemte meninger, men fordi den styrer rammerne, algoritmerne og overvågningen omkring ytringer.
Først: generelle “faretegn” på, at regulering af ytringer er ved at blive udemokratisk
Så: hvordan de tegn konkret dukker op i EU’s nuværende pakke (DSA, Chat Control/CSAM, EMFA, politisk reklame)
1. Hvornår bliver regulering af ytringsfrihed i sig selv udemokratisk?
Her er en mere skarp version af det sidste punkt fra før – i fem punkter:
1) Fra klart ulovligt → vagt “skadeligt”
Sund regulering:
Forbyder meget præcist definerede ting: opfordring til vold, terror, CSAM, konkrete trusler, osv.
Udemokratisk tendens:
Når staten begynder at regulere lovlige ytringer ud fra elastiske kategorier som
“skadeligt”, “desinformation”, “had”, “anti-demokratisk” – uden klar, juridisk definition.Så bliver det til et politisk skøn, hvad der skal nedtones eller bekæmpes.
2) Fra domstole → administrative organer + private platforme
Sund model:
Det er domstole, der i sidste ende afgør, om noget er ulovligt, og loven er klar nok til, at borgeren kan forudse konsekvensen.
Udemokratisk tendens:
Når forvaltningen (Kommission, tilsyn, boards) og private platforme i praksis afgør, hvad der må cirkulere – ofte via:
risikorapporter
“mitigation plans”
kodekser og standarder, der aldrig har været igennem normal demokratisk debat.
3) Fra målrettet efterforskning → bred overvågning og scanning
Sund model:
Myndigheder må overvåge målrettet, hvis der er mistanke, og der er domstolskontrol.
Udemokratisk tendens:
Når man bevæger sig mod generel scanning af alles kommunikation “just in case” (masseovervågning), især i privat eller krypteret kommunikation.
4) Fra lige adgang til debat → første- og andenrangstalere
Sund model:
Staten beskytter rammerne (fx mod vold og intimidering), men blander sig ikke i, hvem der skal have størst gennemslag i debatten.
Udemokratisk tendens:
Når regler i praksis giver:
bestemt presse, “trusted partners”, fact-checkers m.fl. en privilegeret status
og andre aktører (små medier, NGO’er, enkeltpersoner) færre muligheder for reach (algoritmer, labels, ranking).
5) Chilling effect: folk tør ikke sige, hvad de mener
Sund model:
Borgeren kan nogenlunde gennemskue reglerne og tør teste grænserne – presse, satire osv.
Udemokratisk tendens:
Reglerne bliver så komplekse, vage og sanktionstunge, at:
platformene over-kommunikerer (sletter for meget for at undgå bøder)
borgere og journalister tænker: “Det her lader jeg være med at skrive, for man ved aldrig…”
2. Hvor ser vi de tendenser i EU’s nuværende regelsæt?
2.1. DSA og “systemiske risici” fra lovlig tale
Det nye ved DSA er ikke, at ulovligt indhold skal væk – det var allerede tilfældet – men at de største platforme skal identificere og nedbringe “systemiske risici”, også når de udspringer af lovligt indhold. Digital Strategy+1
Systemiske risici omfatter bl.a.:
desinformation og manipulation omkring valg,
påvirkning af “civic discourse” og offentlig orden,
negative effekter for mediepluralisme og ytringsfrihed,
påvirkning af børns mentale sundhed osv. csis.org+1
Det lyder godt, men:
Begreberne er meget brede. Kritiske analyser (CSIS, ADF m.fl.) peger på, at DSA i praksis presser platforme til at begrænse eller nedtone lovlig, men politisk kontroversiel tale, for at undgå at blive beskyldt for at “fremme systemiske risici”. csis.org+1
Kommissionen får stor styringsmagt: VLOPs kan blive pålagt at ændre algoritmer, moderation og design som led i “mitigation”. Det er reelt indgreb i, hvad der bliver set og delt – uden at en domstol har sagt, at indholdet er ulovligt. Digital Strategy+1
Sagt lidt kantet:
DSA går fra “fjern det ulovlige” til “design jeres system, så visse typer lovligt indhold ikke får for meget styrke”.
2.2. DSA-håndhævelsen: X-bøden som politisk lynafleder
Den første store DSA-bøde mod X (120 mio. euro) handlede officielt om transparens, dark patterns og dataadgang, ikke om konkrete ytringer. AP News+1
Men:
Sagen udspiller sig på baggrund af en længere konflikt om moderation, desinformation og “brand safety” på X. The Verge+1
Amerikanske politikere fra Trump-fløjen bruger sagen som eksempel på, at EU reelt straffer en platform for at være mere “free speech”-orienteret (det er selvfølgelig en politisk framing, men den vinder indpas). Reuters+1
Her er pointen ift. dit spørgsmål:
Selv når bøden formelt handler om transparens, foregår det på en scene, hvor både EU og USA læser det som et slagslag om modellen for ytringsfrihed. Det øger risikoen for, at DSA-håndhævelse fremover bliver politiseret.
2.3. “Chat Control” / CSAM-forordningen – fra målrettet til generaliseret scanning?
CSAM/“Chat Control”-pakken er det klareste eksempel på, at EU bevæger sig i retning af meget vidtgående indgreb, der rammer alle – også dem, der aldrig har gjort noget galt:
Den oprindelige idé var, at udbydere kunne blive pålagt at scanne al kommunikation, også krypterede beskeder, for mistænkeligt indhold – med stærke advarsler fra EFF, privacy-eksperter og civilsamfund om masseovervågning. Electronic Frontier Foundation+1
Rådet har i 2025 nået en kompromisposition, hvor obligatorisk scanning af krypterede beskeder er tonet ned, men muligheden for scanning og meget indgribende detektionsordrer består – og kritikken om risiko for generaliseret overvågning er på ingen måde forsvundet. euractiv.com+2euractiv.com+2
Her er vi direkte i punkt 3 ovenfor:
De fleste er enige om, at CSAM er noget af det mest alvorlige og ulovlige overhovedet – men midlet (potentielt at scanne alle) er netop det, der kan gøre reguleringen selv udemokratisk, fordi:
det normaliserer idéen om, at alle kommunikationer i princippet er genstand for mistanke,
det svækker kryptering og dermed pressefrihed, kildebeskyttelse og politisk opposition.
2.4. EMFA – hvem får “medie-stempel”, og hvem får ikke?
Den Europæiske Mediefrihedsforordning (EMFA) er på papiret skrevet for at beskytte mediepluralisme og pressefrihed og trådte i kraft i august 2025. The Media Board+2euronews+2
Men:
Kritiske analyser advarer om, at EMFA samtidig centraliserer medieregulering på EU-niveau, opretter et “Media Board” og giver mulighed for at skabe en slags EU-defineret standard for, hvem der er “rigtige medier”. europeanstudies.mcc.hu+1
Civilsamfundsrapporter peger på, at pressefrihed i flere lande (Ungarn, Italien m.fl.) allerede er i “eksistentiel krise”, og at EMFA kun hjælper, hvis den håndhæves uafhængigt – ellers kan den blive endnu et politiseret værktøj. liberties.eu+1
I forhold til vores kriterier:
Der er en reel risiko for, at medier med “stempel” får særlige rettigheder (fx i forhold til DSA-moderation), mens blogs, alternative medier, Substack-typer osv. bliver andenrangstalere.
Det kan være godt for at beskytte uafhængige redaktionelle medier – men det er også en magt til at definere, hvem der er “seriøs presse”. Det kan misbruges politisk.
2.5. Reglerne for politisk reklame – god intention, bred skydeskive
Reguleringen om transparens og targeting af politisk reklame (TTPA) træder nu i kraft og har to sider: European Commission+1
På den ene side:
Transparens om hvem der betaler
Begrænsning af micro-targeting, især med følsomme data.
På den anden side:
Definitionen af “politisk reklame” er meget bred: også indhold, der “designed to influence legislative or regulatory processes” – det vil sige også NGO-kampagner, borgerinitiativer, kritiske kampagner mod EU-politik osv. EUR-Lex+1
ARTICLE 19 og andre ytringsfriheds-NGO’er advarer om, at det kan betyde: ARTICLE 19+1
kompleks compliance for små aktører,
risiko for, at platforme for en sikkerheds skyld simpelthen blokerer eller nedtoner issue-ads, som er politisk kontroversielle,
og dermed en skævvridning i favør af store partier og kampagneapparater, der har råd til jura og rådgivere.
Igen: intentionen er demokratisk (transparens, mindre manipulation), men værktøjet kan uformelt begrænse mindre og systemkritiske aktørers mulighed for at nå ud.
2.6. Chilling effect og over-compliance
Flere analyser ser nu det samme mønster:
Når bøderne er høje, reglerne komplekse, og den politiske opmærksomhed intens, vil platforme hellere fjerne for meget end for lidt. csis.org+2ADF International+2
CSIS peger på, at DSA’s systemrisikokrav allerede har konsekvenser globalt, hvor platforme følger EU-standarder også uden for EU – hvilket betyder, at ytringer, som ville være lovlige og legitime i USA, reelt kan blive nedprioriteret eller fjernet. csis.org
ADF kalder DSA for en slags “Digital Surveillance Act” og fremhæver netop risikoen for, at lovlige, kontroversielle meninger filtreres væk i forsøget på at holde Kommissionen tilfreds. ADF International
Der er en tydelig bevægelse i retning af, at EU ikke kun regulerer klart ulovligt indhold, men også:
vil styre systemiske effekter af lovligt indhold,
vil have adgang (direkte eller indirekte) til meget mere data,
vil definere rammerne for, hvem der er “seriøse medier”, og hvordan politisk kommunikation må målrettes.
Det betyder ikke, at EU automatisk er ved at blive et autoritært censursystem – der er stærke modkræfter, domstole, NGO’er, intern uenighed mellem Parlament, Råd og Kommission osv.
Men:værktøjskassen (DSA + Chat Control + EMFA + TTPA + AI-regler) giver mulighed for en mere administrativ, top-down styring af den offentlige samtale, end vi er vant til i en klassisk liberal model.



