„Zona gri” a cenzurii: Cum controlează UE conținutul legal, dar considerat „nepotrivit” de aparatul tehnocratic

04 Feb 2026
„Zona gri” a cenzurii: Cum controlează UE conținutul legal, dar considerat „nepotrivit” de aparatul tehnocratic

Un document strategic publicat de GIFCT (Global Internet Forum to Counter Terrorism), organism sprijinit de Comisia Europeană și de marile platforme digitale, introduce conceptul de „conținut de limită” („borderline content”) — un tip de discurs care nu este ilegal, dar care devine, în noua logică instituțională, indezirabil. Documentul, intitulat „Borderline Content: Understanding the Gray Zone”, dezvăluie arhitectura nuanțată a unui nou sistem de control al informației. Sub pretextul prevenirii radicalizării, acest ghid oferă tehnocrației europene instrumentele necesare pentru a suprima opinii care nu încalcă nicio lege, dar care deranjează consensul ideologic progresist. Miezul strategiei europene de control, sprijinit de organizații precum GIFCT, este conceptul de „conținut de limită” (borderline content). Aceasta este „zona gri” unde discursul este perfect legal, dar considerat „nepotrivit” de către aparatul tehnocratic.

În loc să interzică prin lege – ceea ce ar fi anticonstituțional și vizibil – UE presează platformele tech să folosească „moartea prin algoritm”. Conținutul critic este retrogradat, demonetizat sau ascuns (shadowbanning), astfel încât cetățeanul să creadă că are libertate de exprimare, când, în realitate, vocea sa răsună într-un vid digital.

Un document al organizatiei GIFCT (Global Internet Forum to Counter Terrorism), organism susținut de Comisia Europeană și de marile platforme tehnologice, introduce un concept-cheie care merită atenție maximă: „conținutul de limită” („borderline content”). Este vorba despre conținut care nu este ilegal, dar care este considerat problematic, riscant sau „potențial radicalizant”.

Cu alte cuvinte, nu vorbim despre terorism, violență sau infracțiuni, ci despre opinii, analize și critici politice legitime, plasate deliberat într-o zonă vagă, unde pot fi penalizate fără intervenția justiției.

Subiectivitatea ridicată la rang de politică

Documentul recunoaște explicit că noțiunea de „borderline content” este subiectivă. Această recunoaștere nu duce însă la prudență, ci dimpotrivă: la instituționalizarea arbitrarului.

Conținutul este definit ca fiind „legal, dar dăunător” („lawful but awful”), o formulare care rupe legătura tradițională dintre libertatea de exprimare și cadrul juridic. Practic, legalitatea nu mai este suficientă pentru a garanta dreptul de a fi vizibil, distribuit sau monetizat.

Tabelul „Borderline Content Sub-Theme Policies and Use in TVE and Non-TVE Cases” este poate cea mai revelatoare parte a documentului, pentru că arată concret ce tipuri de idei sunt împinse deliberat în „zona gri”. Lista nu vizează fapte ilegale, ci teme ideologice și narative largi: discurs anti-elitist, naționalism, suveranism, opoziție față de globalizare, neîncredere în instituții, contestarea politicilor guvernamentale, critica migrației, a multiculturalismului sau a intervențiilor statului. Aceste sub-teme sunt prezentate ca fiind „contextuale”, „ambigue” sau „potențial exploatabile”, ceea ce justifică aplicarea de măsuri restrictive chiar și în absența oricărei legături cu violența sau extremismul.

Tabelul face o distincție artificială între cazuri „TVE” (extremism violent) și „non-TVE”, dar recomandă, în practică, aceleași instrumente de limitare și pentru discursul politic obișnuit, atunci când acesta este considerat sensibil sau destabilizator. Mesajul implicit este clar: anumite teme devin problematice nu prin ceea ce spun, ci prin faptul că pot alimenta contestarea ordinii politice existente. În acest cadru, „zona gri” nu mai este o categorie tehnică, ci o listă ideologică de subiecte tolerate doar condiționat, monitorizate permanent și gata să fie reduse la tăcere algoritmic atunci când depășesc pragul acceptabil stabilit de instituții și partenerii lor.

Cenzură fără lege, fără judecător

Unul dintre cele mai problematice aspecte ale documentului este promovarea unor măsuri extra-judiciare. Platformele sunt încurajate să acționeze preventiv, fără decizii ale instanțelor, fără proceduri contradictorii și fără obligația de a demonstra încălcarea vreunei legi.

Astfel, companii private devin arbitri ai acceptabilității politice, sub umbrela unor „parteneriate” cu instituții europene și ONG-uri acreditate.

Discursul politic, ținta principală a cenzurii

Categoriile de conținut vizate spun totul despre intentiile cenzurii. Sunt menționate explicit:

  • naționalismul,

  • discursul anti-guvernamental,

  • critica „elitelor”,

  • neîncrederea în instituții,

  • opoziția față de politicile publice dominante.

Acestea nu sunt ideologii violente, ci forme clasice de opoziție politică, prezente în orice societate democratică. Documentul le tratează însă ca pe factori de risc, sugerând că simpla critică poate fi o etapă preliminară a „radicalizării”.

Secțiunea „Reviewing Company Policies and Actions” (Revizuirea politicilor și acțiunilor companiilor) descrie procesul prin care GIFCT a evaluat modul în care cele 22 de companii membre își aliniază politicile interne la cele 14 sub-teme identificate ca făcând parte din „zona gri”. Analiza evidențiază o trecere de la reguli stricte de eliminare la un spectru de acțiuni mai nuanțate, utilizând metodologia TSPA (Trust & Safety Professionals Association) pentru a clasifica modul în care platformele intervin asupra conținutului de limită. Prin introducerea unor categorii precum „tip de acțiune nespecificat” sau acțiuni „contingente” — care depind de cumulul mai multor semnale de risc — documentul arată că moderarea nu se mai bazează pe criterii binare (permis/interzis), ci pe un sistem complex de monitorizare a comportamentelor. Această abordare confirmă faptul că tehnocrația digitală nu mai vizează doar ștergerea postărilor, ci gestionarea lor printr-o ierarhizare opacă, unde vizibilitatea unui mesaj este decisă de algoritmi în funcție de cât de bine se aliniază acesta cu standardele de „siguranță” auto-impuse de industrie.

Utilizarea "Shadowbanning": cenzura invizibilă

Documentul nu insistă pe ștergerea conținutului, ci pe metode mai eficiente și mai greu de detectat: 

  • reducerea vizibilității,

  • retrogradarea în algoritmi,

  • demonetizarea,

  • limitarea distribuirii.

Aceste practici au un avantaj strategic major pentru cei care le aplică: nu lasă urme vizibile de cenzură, nu prvoaca scandal. Utilizatorul nu este notificat oficial, nu poate contesta eficient decizia și nu știe niciodată clar de ce mesajul său nu mai ajunge la public.

Documentul tratează shadowbanning-ul nu ca pe o abatere sau un abuz, ci ca pe un instrument legitim de guvernare a discursului, recomandat explicit pentru gestionarea „conținutului de limită”. Ideea centrală este că eliminarea directă a conținutului ar fi adesea „contraproductivă”, pentru că provoacă reacții, victimizare și mobilizare politică. În schimb, se promovează intervenții opace: reducerea vizibilității în fluxuri, limitarea distribuirii algoritmice, retrogradarea în rezultatele de căutare, excluderea de la recomandări și demonetizarea. Toate aceste măsuri au un numitor comun: utilizatorul nu este informat clar că a fost sancționat. Documentul subliniază eficiența acestor tehnici tocmai pentru că ele nu generează conflict deschis și nu pot fi ușor dovedite sau contestate. Mesajul rămâne „online”, dar este izolat de public, lipsit de tracțiune și impact. În această logică, libertatea de exprimare este menținută formal, dar anulată funcțional. Shadowbanning-ul devine astfel o formă de cenzură invizibilă, administrată algoritmic, care permite platformelor și actorilor instituționali să controleze dezbaterea publică fără a-și asuma costul politic al unei interdicții explicite. Documentul arată limpede că scopul nu este respectarea legii, ci gestionarea percepțiilor și neutralizarea discursului incomod, într-un mod discret și greu de detectat.

Algoritmi sub presiune politică

Documentul recunoaște, într-un limbaj tehnic și aparent neutru, existența unei presiuni externe constante asupra politicilor de moderare, exercitată de guverne, instituții publice și organizații neguvernamentale „partenere”. Departe de a fi prezentate ca actori marginali, aceste entități sunt integrate explicit în ecosistemul de decizie privind ce tip de conținut trebuie limitat, „contextualizat” sau redus ca vizibilitate. ONG-urile sunt descrise ca furnizori de expertiză, semnale de risc și cadre interpretative, în timp ce guvernele apar ca surse de așteptări politice și presiuni normative, în special în perioade sensibile precum crizele, alegerile sau dezbaterile majore de politică publică. Documentul sugerează că platformele trebuie să fie „receptive” la aceste semnale externe pentru a evita conflicte reputaționale sau reglementări mai dure, ceea ce transformă moderarea conținutului într-un proces profund politizat. În acest cadru, deciziile algoritmice nu mai sunt rezultatul unor criterii neutre, ci al unui echilibru de forțe între interese instituționale, agende ideologice și imperative de conformare. Practic, se legitimează ideea că discursul public online trebuie ajustat nu doar în funcție de lege, ci și de sensibilitățile și prioritățile stabilite de actori politici și ONG-uri cu acces privilegiat la centrele de decizie.

Astfel, neutralitatea tehnologică dispare. Platformele nu mai sunt spații de dezbatere, ci mecanisme de filtrare ideologică, aliniate la prioritățile politice ale Bruxelles-ului.

Satira și umorul, tratate ca amenințări

Documentul acordă o atenție specială utilizării umorului, satirei și a conținutului ironic, tratate nu ca forme legitime de expresie civică, ci ca potențiale „mecanisme de evitare” a moderării. În logica autorilor, gluma politică, ironia sau meme-urile nu sunt expresii culturale firești ale dezbaterii publice, ci instrumente prin care mesajele critice ar putea fi „normalizate” și răspândite mai eficient. Se sugerează că ambiguitatea specifică satirei — faptul că nu afirmă direct, ci insinuează, caricaturizează sau ridiculizează — reprezintă un risc suplimentar pentru capacitatea platformelor de a controla narațiunile. În consecință, documentul justifică o supraveghere sporită a acestor forme de exprimare, chiar și atunci când nu conțin apeluri la violență sau ilegalitate. Este o poziție revelatoare: umorul nu mai este văzut ca supapă democratică sau instrument tradițional de critică socială, ci ca problemă operațională. În acest cadru, râsul devine suspect, iar satira — una dintre cele mai vechi forme de contestare politică — este tratată ca o vulnerabilitate a sistemului de control al discursului.

Documentul GIFCT descrie un sistem în care libertatea de exprimare nu mai este garantată de lege, ci administrată de algoritmi, în baza unor criterii vagi și politizate. Drepturile nu sunt negate frontal, ci relativizate, restrânse discret și gestionate prin parteneriate opace între stat și sectorul privat.

„Zona gri” nu este o măsură tehnică neutră. Este spațiul în care democrația devine negociabilă, iar critica – tolerată doar atâta timp cât nu deranjează prea mult.

Când discursul legal ajunge să fie tratat ca o problemă de securitate, nu mai vorbim despre protecția societății, ci despre controlul dezbaterii publice.

Alte stiri din Externe

Ultima oră