Nelle viscere di Facebook: come le reti social amplificano l’odio razzista e cospirazionista di estrema destra
Top

Nelle viscere di Facebook: come le reti social amplificano l’odio razzista e cospirazionista di estrema destra

Il Guardian ha analizzato una rete di gruppi Facebook pubblici, con un totale di 611.289 membri registrati al 29 luglio 2025

Nelle viscere di Facebook: come le reti social amplificano l’odio razzista e cospirazionista di estrema destra
Preroll

globalist Modifica articolo

28 Settembre 2025 - 18.32


ATF

Immaginate di scorrere il feed di Facebook in una sera qualunque: un post su una ricetta locale, un annuncio per un mercatino dell’usato, un video di un cane che fa capriole. Poi, tra un like e l’altro, emerge un commento velenoso su “quegli immigrati che rubano il nostro pane”.

Non è un gruppo di neonazisti con la svastica in copertina. È un forum di quartiere, con migliaia di membri che chiacchierano del tempo e delle tasse. Eppure, in questi spazi apparentemente innocui, le idee di estrema destra – anti-immigrazione, cospirazioniste, nazionaliste – si insinuano come una gramigna, radicalizzando utenti comuni e alimentando violenza reale.

È qui, nei meandri quotidiani del social network più usato al mondo, che il veleno si diffonde, spesso senza che Meta, la casa madre, muova un dito.

Il Guardian ha analizzato una rete di gruppi Facebook pubblici, con un totale di 611.289 membri registrati al 29 luglio 2025 – una cifra che, per via delle sovrapposizioni di iscrizioni, potrebbe essere gonfiata, ma che resta impressionante per la sua scala.

Non parliamo di enclave oscure della dark web, ma di comunità aperte dove il 40% dei post critica aspramente le istituzioni governative, l’una su sette tocca il tema dell’immigrazione (con un post su dieci che la demonizza in termini disumani), e dove teorie del complotto e nazionalismo estremo punteggiano il discorso quotidiano.

Tra l’inizio di questi gruppi e la metà di maggio 2025, abbiamo esaminato decine di migliaia di messaggi, usando strumenti come l’API di OpenAI per tracciare pattern linguistici e dinamiche di radicalizzazione. Il risultato è un ritratto inquietante: questi non sono spazi marginali, ma amplificatori di rabbia che hanno contribuito ai tumulti estivi del 2024 in Gran Bretagna, con folle inferocite che incendiavano hotel per rifugiati e attaccavano moschee.

Prendete il caso di Lucy Connolly, una bambinaia di mezza età che, in un post del luglio 2024, invocava di “dare fuoco agli hotel che ospitano i richiedenti asilo”. Arrestata e condannata a 31 mesi di prigione nell’ottobre successivo per incitamento all’odio, Connolly non era una militante di professione. Era una madre di famiglia, radicalizzata in parte proprio in questi gruppi Facebook.

I suoi messaggi – e quelli di centinaia di altri – non sono stati rimossi tempestivamente, nonostante le linee guida di Meta contro l’odio. Anzi, nei forum analizzati, post che definiscono gli immigrati “criminali”, “parassiti”, “primitivi”, “feccia”, “pidocchi” o portatori di “credenze da dinosauri” sono rimasti online per mesi, a volte anni. “Gruppi pubblici di Facebook come quelli del nostro campione contengono un misto di discussioni politiche e linguaggio estremamente dannoso”, spiega Anki Deo, ricercatrice di Hope Not Hate, un’organizzazione che monitora l’estremismo. “È proprio questa miscela che li rende così insidiosi: sembrano normali, ma normalizzano l’odio”.La radicalizzazione inizia piano, come un sussurro.

Nei gruppi esaminati, il primo tema ricorrente è la sfiducia nelle istituzioni. Circa due post su cinque attaccano il governo, la polizia o i media mainstream, dipingendoli come corrotti o venduti agli “élite globaliste”. È un terreno fertile per figure come Nigel Farage, leader di Reform UK, il cui partito ha cavalcato l’onda anti-establishment nelle elezioni del 2024. O Tommy Robinson, ex fondatore dell’English Defence League, che con i suoi video virali semina dubbi su “verità ufficiali”. “In generale, fascisti ed estremisti cercano di minare le istituzioni della verità, dei fatti e dell’educazione, perché è proprio quello che gli si para davanti: una cittadinanza informata”, osserva Sander van der Linden, professore di psicologia sociale all’Università di Cambridge. In questi spazi, un semplice post su un episodio di cronaca – un furto attribuito a un immigrato, magari senza prove – si trasforma in un coro di accuse contro “il sistema che ci tradisce”.Ma è sull’immigrazione che il discorso si fa tossico.

Una persona su sette dei post tocca questo tasto, e qui emerge il capro espiatorio: gli stranieri, dipinti come invasori che rubano lavoro, case e sicurezza. “Gli immigrati sono spesso i capri espiatori, specialmente nelle comunità estremiste di destra, dove vengono sistematicamente demonizzati e disumanizzati”, spiega la dottoressa Julia Ebner, direttrice del progetto contro la polarizzazione all’Institute for Strategic Dialogue. Nei gruppi, i toni si inaspriscono: un post del agosto 2024, durante i tumulti, descriveva i richiedenti asilo come “ratti che infestano le nostre strade”, raccogliendo migliaia di like e condivisioni.

Quei disordini – scoppiati dopo l’accoltellamento di tre bambine a Southport, attribuito falsamente a un migrante musulmano – hanno visto folle inferocite marciare su hotel che ospitavano rifugiati, con bottiglie molotov e slogan razzisti. Molti partecipanti, come emerso dalle indagini giudiziarie, si erano coordinati proprio su Facebook, difendendo i rivoltosi come “patrioti” contro un “governo debole”.Non è solo rabbia cieca: c’è un nazionalismo viscerale, un inno al “noi contro loro”.

Una persona su 25 dei post esprime forme di nativismo, esaltando un’identità britannica “pura” minacciata da multiculturalismo e globalizzazione. Qui entrano in gioco i deepfake e i chatbot: video falsi di politici che “confessano” complotti, o bot che amplificano echo chamber.

L’algoritmo di Facebook, progettato per massimizzare l’engagement, fa il resto: un commento estremo genera like, condivisioni, e presto un’illusione di consenso sociale. “Potresti trovare due persone nel tuo quartiere che la pensano come te, ma ora puoi connetterti con migliaia di individui che provano lo stesso in pochi secondi, creando una percezione errata di ciò che è il consenso nella società”, aggiunge van der Linden.

Questo “effetto camera d’eco” non solo radicalizza, ma spinge all’azione: nei gruppi analizzati, post che incitavano a “riprendere le strade” durante i riots del 2024 hanno portato a condanne per centinaia di utenti.E poi ci sono le teorie del complotto, la porta d’ingresso per una radicalizzazione più profonda. Una persona su 20 dei post ne promuove qualcuna: dal “grande reset” delle élite al negazionismo sul cambiamento climatico, passando per la convinzione che i media nascondano “la verità sull’immigrazione di massa”.

Questi non sono i forum bui di QAnon, ma discussioni tra vicini: “Perché il governo ci mente sui numeri degli sbarchi? Guardate questo video!”. Esperti come Ebner notano come queste narrazioni fungano da “gateway drug” per l’estremismo: iniziano con dubbi innocui, finiscono con la disumanizzazione. “C’è una sensazione che gran parte di questa retorica sia stata normalizzata al punto che non devono più temere conseguenze legali o pushback sociale”, dice Ebner. Meta, dal canto suo, ha rimosso solo una frazione di questi contenuti, nonostante le promesse post-riots di maggiore moderazione.Per capire l’impatto, torniamo ai fatti. I tumulti del 2024 non sono stati un fulmine a ciel sereno: sono il frutto di mesi di fermento online.

A Southport, la falsa notizia dell’attentatore – diffusa da influencer di destra su Facebook – ha acceso la miccia. Gruppi con decine di migliaia di membri hanno ospitato live streaming delle proteste, con commenti che incitavano alla violenza: “Bruciate tutto, è ora di combattere!”. Decine di hotel per rifugiati sono stati attaccati, moschee vandalizzate, e la polizia ha arrestato oltre 1.000 persone, molte delle quali con impronte digitali su post estremisti. Eppure, come emerge dalla nostra analisi, il 70% dei contenuti disumani è rimasto online oltre un mese.Esperti concordano: questi gruppi non sono solo chiacchiere.

Sono incubatori di violenza. “La velocità della radicalizzazione è aumentata esponenzialmente grazie ai social”, spiega Deo di Hope Not Hate. Van der Linden paragona il processo a una “spirale del silenzio invertita”: invece di tacere per paura, gli utenti si sentono empoderati a urlare, credendo di rappresentare la maggioranza. E le conseguenze? Non solo riots, ma un’erosione della coesione sociale, con un aumento del 30% delle denunce per odio razziale nel 2024, secondo dati di polizia.Ma c’è speranza?

Il Guardian ha condiviso i dati con Meta, che ha promesso indagini. Eppure, senza regolamentazioni più stringenti – come un oversight indipendente sugli algoritmi – questi network continueranno a crescere. Immaginate: il vostro gruppo del quartiere, quello delle ricette e dei cani, potrebbe essere il prossimo vettore. La domanda è: quanto ancora possiamo ignorarlo?

Metodologia: I dati sono stati raccolti analizzando post pubblici da gruppi selezionati, con l’uso di AI per categorizzare contenuti. Per dettagli, vedi il nostro approfondimento sulla tracciatura dei post post-riots. Il Guardian aderisce a principi etici sull’AI generativa, evitando allucinazioni e verificando fatti.

Native

Articoli correlati