Inizia l’era della persuasione politica artificiale
Top

Inizia l’era della persuasione politica artificiale

Le conversazioni guidate dall’IA incidono sulle scelte politiche, spesso senza farsi notare, perché parlare con un algoritmo cambia un’idea più di uno spot elettorale. I dati recenti indicano una vulnerabilità maggiore verso posizioni di destra radicale.

Inizia l’era della persuasione politica artificiale
Preroll

redazione Modifica articolo

13 Dicembre 2025 - 16.22 Culture


ATF

di Lorenzo Lazzeri

Per molto tempo si è detto che convincere un elettore fosse quasi tempo perso. Le campagne servivano a scaldare i propri, non a spostare chi stava altrove. Un assunto comodo, ripetuto per anni, che oggi scricchiola. Negli ultimi mesi sono usciti studi difficili da ignorare, pubblicati su Nature e Science, che raccontano un’altra storia: brevi conversazioni con chatbot politici riescono a modificare opinioni, intenzioni di voto, giudizi su candidati e temi concreti. Non di poco.

Mi è capitato di seguire campagne locali, assemblee, comizi semivuoti e di pensare che il vero lavoro politico avvenisse altrove, magari a casa, davanti a uno schermo. Oggi quello schermo risponde e lo fa con pazienza, senza stancarsi, senza contraddirsi apertamente, accumulando argomenti uno sopra l’altro.

Gli esperimenti condotti negli Stati Uniti, in Canada, in Polonia e nel Regno Unito sono piuttosto esplicativi e chiarificatori. Partecipanti messi a dialogare per pochi minuti con un chatbot “schierato” mostrano spostamenti misurabili delle preferenze politiche. In alcuni casi l’effetto supera quello medio di spot televisivi o messaggi social, che la letteratura considera da sempre modesto. In “Persuading voters using human–artificial intelligence dialogues” Lin e i suoi colleghi descrivono già variazioni consistenti, di alcuni punti percentuali, dopo una singola interazione. Hackenburg, un altro studioso del fenomeno, osserva cambiamenti ancora più marcati quando il sistema viene istruito a fornire molte informazioni, dati, esempi.

Qui entra il nodo più scomodo. Gli stessi studi, incrociati con ricerche precedenti su radicalizzazione online, mostrano un’asimmetria ricorrente: spostare le opinioni verso destra risulta più semplice che spostarle nella direzione opposta. Non è una sorpresa totale. Da anni si sa che cornici identitarie, conflittuali, punitive attecchiscono meglio in contesti di sfiducia e saturazione informativa. L’IA sembra amplificare questa tendenza.

Curiosamente, o forse no, i chatbot orientati a destra producono anche più informazioni inesatte o completamente inventate. Non è sempre per errore: accade perché il modello viene spinto a sostenere una tesi con molti “fatti” e questi, prima o poi, finiscono. A quel punto restano affermazioni plausibili, difficili da verificare in tempo reale. L’utente medio non interrompe la conversazione, anzi tende a seguirla. Una volta ho notato, analizzando discussioni online su temi fiscali e sicurezza, quanto basti un numero messo lì con sicurezza per orientare un giudizio. L’IA fa lo stesso, solo meglio.

Il rischio maggiore non sta nei chatbot dichiaratamente politici, perché, se va bene, vengono riconosciuti quasi subito. Il problema maggiore risiede negli assistenti apparentemente neutri: strumenti di orientamento civico, bot di supporto nei commenti social, applicazioni che spiegano immigrazione, welfare, criminalità, energia. Qui il confine tra informazione e persuasione si fa sottile. Un’IA addestrata con dataset sbilanciati o istruita a privilegiare certe cornici può accompagnare l’utente verso conclusioni prevedibili, passo dopo passo.

Qualcuno obietta che si tratta di esperimenti controllati, lontani dalla confusione del mondo reale e ciò può essere vero fino a un certo punto. La novità non è il singolo effetto, ma la scalabilità. Un tempo servivano militanti, call center, strutture costose. Ora basta un modello linguistico replicabile, operativo ventiquattr’ore su ventiquattro. Non si arrabbia, non si contraddice, non perde il filo.

Attribuire tutto alla tecnologia sarebbe una scorciatoia. Le condizioni che rendono efficace questa persuasione esistevano già: sfiducia nelle istituzioni, polarizzazione affettiva, ricerca di spiegazioni semplici. L’IA si inserisce lì, come un moltiplicatore. La questione non è se influenzerà le elezioni, ma come e in che direzione.

Non siamo ancora davanti a una manipolazione automatica del voto. Siamo però entrati in una fase in cui la persuasione politica artificiale è plausibile, silenziosa, difficile da tracciare. E tende a favorire narrazioni che semplificano, dividono, promettono ordine. L’impressione, almeno in base alla mia esperienza e sensibilità, è che le democrazie arrivino tardi a riconoscere i cambiamenti quando questi non fanno rumore. Qui il rumore è basso. Proprio per questo conviene ascoltare.

Native

Articoli correlati