Innanzitutto formuliamo i migliori auguri di Buon Ferragosto agli amici lettori.
Dopo di che torniamo sui nostri guai con i guardiani del nostro bene: Meta, la società che controlla Facebook, Instagram, Threads e WhatsApp, e che detta le regole di moderazione per tutte queste piattaforme.
Come noto, ieri il nostro account ha subito un blocco. Ufficialmente per salvaguardarlo da “attività insolite” (*) . Abbiamo approfondito, tramite amicizie, parlandone con un ex collaboratore di Facebook, il cui nome ovviamente resterà segreto. E che qui chiameremo Mario (nome fittizio quindi).
Riportiamo testualmente, usando il corsivo, quanto ci ha detto a proposito del nostro caso.
Professore, guardando la schermata e leggendo il suo articolo, direi che è abbastanza plausibile che il blocco sia stato frutto di un atto dell’effetto combinato di due fattori che lei stesso hai descritto bene nel testo:
1) Algoritmo automatico – Il pezzo contiene più volte termini e nomi che
l’algoritmo di Facebook associa a contenuti “a rischio” (Hitler, Mein
Kampf, Mussolini, duce, fascista, razzista, ecc.). Un algoritmo è una
serie di istruzioni che dice a un computer cosa fare. Il cervello
insomma, impostato però da analisti che sono uomini come tutti gli
altri. Questi sistemi sono brutali: non distinguono il contesto critico
dal sostegno. Vanno “a parola chiave” e, se scatta un certo punteggio di
rischio, il post può essere rimosso o l’account bloccato in attesa di
verifica. In gergo tecnico si chiama trigger algoritmico: un meccanismo
automatico che si attiva quando il sistema incontra parole o frasi
presenti in una lista di sorveglianza. Non interpreta il senso: si
limita a contare quante volte appaiono termini “sensibili” e, se superi
una certa soglia, ti blocca. È come un cane da guardia che abbaia a
chiunque indossi un cappuccio, anche se è solo il postino;
2) Segnalazioni coordinate – Evidentemente un gruppo organizzato di utenti, politicamente a lei avversi, ha segnalato il contenuto nel giro di pochi minuti, Facebook spesso lo rimuove in automatico, senza neppure controllarlo subito. E nel suo caso, vista la tematica e il tono critico verso certi ambienti, è verosimile che qualcuno abbia fatto partire una segnalazione mirata. Il fatto che lei dica che il post sia scomparso due volte e che il tag resti leggibile su pagine amiche rafforza questa ipotesi: il contenuto non è stato “bannato” universalmente, ma colpito in modo mirato sul suo profilo/pagina. Meta non ne fa un fatto personale, ma i suoi filtri sono ciechi e vulnerabili all’uso strumentale da parte di chi vuole silenziarti. È quasi certo che ci sia stata una manovra di segnalazione mirata, e l’algoritmo ha fatto il resto.
Ora viene il bello.
Inoltre, professore, ho letto tutto e individuati alcuni punti “minati” ad alto rischio di trigger per blocco,
1. Termini e nomi storici sensibili, senza filtro algoritmico: "Mein
Kampf", "Adolf Hitler", "duce", "Mussolini"; Gli algoritmi di Meta non
distinguono il contesto critico dal sostegno. Ogni menzione diretta,
specialmente ripetuta, aumenta il punteggio di “pericolo”
automaticamente;
2. Espressioni con carica insultante diretta, anche se rivolte a
personaggi storici negativi, “Robaccia razzista e reazionaria”,
“pornografica cosmesi politica”, “coprofago simbolico”. Per un
osservatore umano è chiaro che è una critica; per un filtro automatico o
per un segnalatore malizioso, può essere “linguaggio offensivo” o “hate
speech”.
3. Collegamento diretto con contenuti oggi in vendita. L’associazione tra un’opera “bandita” (Il Campo dei Santi) e
testate/giornali contemporanei può essere interpretata come
“diffamazione” se segnalata in massa, anche se stai facendo un’analisi
politica legittima.
4. Riferimenti espliciti a categorie protette. Parlare di “migranti” in
contesti di razzismo o “teoria della sostituzione” attira attenzione
degli algoritmi perché queste parole chiave sono fortemente sorvegliate.
5. Accuse dirette a soggetti politici o ideologici, “ultradestra online”, “coordinamento militante”. Queste frasi possono essere usate da chi la segnala come “contenuto che incita all’odio verso un gruppo”. rovesciando il senso.
Mario, che non possiamo non ringraziare pubblicamente, ci ha perfino fornito una preziosa scaletta circa la probabile cronologia del blocco.
[Minuto 0] – Pubblicazione del post:
• L’algoritmo di Meta analizza in tempo reale il testo: cerca parole
chiave sensibili (“Mein Kampf”, “Mussolini”, “Hitler”, “razzista”,
“migranti”, “teoria della sostituzione”, eccetera.).
• Non trova immagini “pericolose” (quelle vengono filtrate a parte), ma
assegna comunque un punteggio di rischio medio-alto perché ci sono molte
keywords nel giro di poche frasi.
[Minuto 1-5] – Prima “onda” di lettura umana:
• Alcuni contatti o “osservatori” dell’area politica criticata leggono il post.
• Se fanno parte di gruppi coordinati (chat Telegram, gruppi Facebook chiusi), condividono il link e dicono: “Segnalate questo come hate speech o incitamento”.
• In genere bastano 5-10 segnalazioni coordinate entro pochi minuti per far passare un contenuto in revisione automatica, specie se le segnalazioni provengono da profili con una certa anzianità.
[Minuto 5-15] – Algoritmo in “revisione rapida”:
• Il post viene messo in una sorta di “sandbox” invisibile: per alcuni utenti è ancora visibi le (magari quelli taggati o vicini a te), per altri sparisce subito.Una sandbox è un ambiente di prova isolato, dove puoi eseguire programmi o codice senza rischiare di danneggiare il sistema principale.In parole povere: è come una stanza chiusa a chiave in cui lasci giocare un bambino con vernici e martello, può fare disastri lì dentro, ma fuori resta tutto intatto.
• Qui interviene un algoritmo più severo, che applica regole di “hate speech” senza contesto: prende alla lettera frasi e nomi, ignorando che il testo sia un’analisi critica.
[Minuto 15-25] – Primo intervento di rimozione:
• Meta rimuove il post con la giustificazione standard (attività insolita o violazione standard della community).
• Il messaggio “attività insolita” è usato per non dire che c’è stata una segnalazione politica e un blocco di contenuto sensibile.
• A volte il sistema “marca” l’account come a rischio, e ogni pubblicazione successiva viene controllata in modo più rigido per 24-48 ore.
[Minuto 25-30] – Seconda pubblicazione:
• Quando lei riposta lo stesso articolo, il sistema rileva che è identico al contenuto appena rimosso (lo confronta con un hash digitale) e accelera la rimozione. Un hash, in pratica, è una specie di impronta digitale: un po’ come avere un cane da guardia che annusa impronte digitali: molto efficiente, ma non capisce il contesto.
• Non serve neanche una seconda ondata di segnalazioni: il filtro automatico lo blocca in pochi minuti.
[Ore successive] – Blocco temporaneo dell’account:
• Meta usa la formula “attività insolita” per coprire il fatto che lei
(come altri) è finito in una blacklist temporanea: un registro interno
di account “a rischio moderazione” che restano sotto sorveglianza
stretta per un certo periodo.
• Questo spiega, come anticipato, perché il tag sulle pagine amiche resta visibile: non è stato bandito globalmente, ma “oscurato localmente” per il suo profilo/pagina.
Infine le conclusioni:
Il suo post professore è stato vittima di un mix di trigger algoritmico e segnalazione coordinata. L’ipocrisia sta nel fatto che Meta preferisce presentarle queste cose come “problema tecnico” piuttosto che ammettere che qualcuno ha abusato del loro sistema di moderazione per colpirla. Per questo motivo non collaboro più con loro.
Sulla durata del blocco Mario non si è pronunciato. Si va da un minimo di due-tre giorni, una settimana, un mese fino – questa la sua espressione – alla “squalifica a vita”.
Crediamo che per oggi possa bastare.
Ci sia concessa una sola osservazione. Non è censura “classica”: niente atti pubblici, tribunali o poliziotti. È un sistema di moderazione algoritmica opaco, vulnerabile come un portone lasciato socchiuso. Bastano poche mani organizzate per aprirlo e farti sparire dalla piazza.
L’algoritmo guarda ai nomi, non al contesto; conta le segnalazioni, non la loro fondatezza. Così gruppi politicamente organizzati possono usare i buchi del sistema per zittire un avversario senza mai entrare nel merito. È una piazza che sembra libera, ma dove la folla è truccata e i vigilantes automatici obbediscono a chi urla più forte. E la battaglia delle idee diventa una farsa: tu giochi a carte scoperte, loro con il mazzo truccato e il potere di ribaltare il tavolo quando vogliono. E “loro”, nel nostro caso, sono i fascisti.
A questo proposito un’ ultima cosa. La complicità di Meta rinvia a questo mix tra tecnologia e autolesionistica tolleranza, cioè nel mettere sullo stesso piano, grazie a una specie di nominalismo tecnologico, liberali e fascisti: da una parte i difensori della libertà e dell’esperimento liberale di società liberà, che ha pochi secoli di vita, dall’altra coloro che approfittano della libertà per cancellare la società libera e vendicarsi della severa lezione loro impartita nel 1945. Come insegna un grande filosofo del Novecento, Karl Popper, non si può essere tolleranti con gli intolleranti.
Si dirà che in fondo Meta è in buona fede, e che è una piattaforma privata, quindi può applicare le regole che vuole, eccetera. Certamente. Va però ricordato che Mark Zuckerberg era alla cerimonia di insediamento di Trump, probabilmente il capofila dei nemici del liberalismo rispuntati dalle fogne della storia. Valuti il lettore.
Dimenticavamo: Mario ha consigliato di superare la griglia dell’algoritmo. Come? Usando linguaggi, metafore, codici che passano sotto i radar degli algoritmi e dei “segnalatori”, così da far arrivare comunque il messaggio. Come facevano i dissidenti nei regimi dittatoriali: ironia, allusione, citazioni storiche indirette.
A parte il senso di umiliazione che ci infliggeremmo da soli, perché dovremmo lasciare vincere i fascisti? Qui si gioca con la tolleranza autolesionistica: quell’arte assurda di farsi del male da soli, spalancando la porta a chi vuole cancellare la civiltà liberale. Dall’interno Meta, forse senza rendersene conto; dall’esterno, i fascisti, con una convinzione che non ammette dubbi.
Carlo Gambescia
14 settembre 2025
Il mese trascorso non ha modificato la situazione: la mia pagina Facebook resta bloccata. Per scoprire le ultime novità (si fa per dire) e approfondire, sempre in argomento, le riflessioni pubblicate sul blog, gli amici lettori possono consultare subito il post apparso oggi:
30 giorni di odissea digitale con Meta - https://carlogambesciametapolitics2puntozero.blogspot.com/2025/09/30-giorni-di-odissea-digitale-con-meta.html .
C.G.

Alberto Usuardi: La mia totale solidarietà e la speranza che tutto si risolva al più presto. Segnalo comunque che il post si può ancora condividere su FB tramite il blog.
RispondiEliminaCarlo Alberto, Sono disgustato. Grazie della sua amicizia :-) . E grazie per la segnalazione.
EliminaMi dispiace molto, la seguiró qui
RispondiEliminaGrazie!
EliminaInsomma un wokismo ribaltato. Buon Ferragosto a lei
RispondiEliminaEsattamente. Diciamo però con il surplus del manganello digitale :-) Grazie anche a lei.
Elimina