Benvenuti nell'era delle fake truth
Le fake news stanno morendo. Quello che le sostituirà rischia di essere molto peggio.
Ciao!
Ellissi torna anche oggi, per parlare di un tema cui penso spesso.
Intanto, un annuncio: dal 23 al 26 giugno, Salesforce organizza tanti webinar gratuiti per capire come integrare l’AI nel nostro lavoro e nella nostra azienda.
Se anche tu vuoi sapere come promuovere un’iniziativa o un servizio su Ellissi, leggi qui!
Buona lettura,
Valerio
Tornano i webinar gratuiti di Salesforce sull’AI, online
Dal 23 al 26 giugno tornano i webinar di Salesforce: il modo giusto per scoprire come l’AI può rivoluzionare il lavoro in azienda.
Registrandoti a questo link accederai a una serie di webinar gratuiti che ti aiuteranno a capire come integrare l’intelligenza artificiale per semplificare i processi e aumentare la produttività.
Scoprirai per esempio come automatizzare attività ripetitive, migliorare l’efficienza operativa e offrire esperienze sempre più personalizzate.
Iscrivendoti, avrai accesso ai webinar anche on demand, così potrai seguirli o rivederli in qualsiasi momento.
Inizia a costruire il futuro del lavoro con l’AI, clicca qui:
Benvenuti nell'era delle fake truth
Vi ricordate l’infausta epoca delle fake news?
La buona notizia è che potrebbe presto volgere al termine. La cattiva è che ciò che la sostituirà è - se possibile - ancora peggio.
Benvenuti e benvenute nell’era delle fake truth.
È l’ennesimo momento di trasformazione per l’informazione. In questa nuova fase, a essere manipolato non sarà più solamente un segmento di popolazione o un singolo evento — come una guerra o un’elezione.
La distorsione temporanea dell’attualità che abbiamo vissuto con le fake news si espanderà, diventando un processo permanente di riscrittura della storia.
Nell’era delle fake truth la propaganda non sarà più attuata, come negli ultimi anni, da cellule sotterranee che cercano di approfittare delle falle dei giornali e dei social; in futuro la manomissione del sapere verrà sospinta direttamente dagli strumenti di divulgazione mainstream, con conseguenze che potrebbero essere irreparabili.
Mi rendo conto che è un pensiero confuso, quindi cominciamo dall’inizio. Cosa sta succedendo?
Intelligenze nere
Usiamo sempre più spesso le intelligenze artificiali per cercare informazioni.
È un dato di fatto. Di più, è diventata un’abitudine: quando vogliamo approfondire un tema, abbiamo un dubbio o ci serve un consiglio non ci affidiamo più a Wikipedia o ai giornali di un tempo — ma a ChatGPT, Gemini, Deepseek e servizi analoghi.
I chatbot, insomma, sono diventati i nuovi middle man del sapere: attualità, storia, scienza o politica… sono loro le sorgenti da cui ci abbeveriamo.
Ma quando possiamo fidarci di quello che ci dicono?
Poco, direi. Non tanto perché soffrano di allucinazioni (che per la verità sono sempre più sporadiche). Piuttosto perché questi sistemi sono scatole nere: assemblano e rimasticano informazioni senza dirci con precisione cosa facciano, come lo facciano e perché.
E poi, come tutti i middle man, hanno degli interessi da difendere: sono prodotti tecnologici for-profit guidati da obiettivi specifici, di natura commerciale e politica. Canalizzano l’intero processo di costruzione del sapere in pochi snodi rigidamente centralizzati.
Quando a metà maggio Grok - il chatbot di Elon Musk - ha dato di matto, iniziando a somministrare agli utenti di X fantasiose ricostruzioni sul «genocidio bianco» perpetrato dal Sudafrica, Musk ha dato la colpa a un non meglio identificato «impiegato ribelle» della piattaforma che avrebbe effettuato un «intervento non autorizzato».
Eppure nulla si origina dal niente, nemmeno il complottismo di Grok: lo stesso Musk, poche settimane prima, aveva accusato il presidente sudafricano di promulgare «leggi apertamente razziste» che stavano imponendo «un genocidio» verso gli agricoltori bianchi del paese. Il bot, in breve, era diventato specchio ideologico del suo creatore.
Oggi, “grazie” all’AI, il tentativo di manipolazione del qui e ora tipico delle fake news rischia di trasformarsi in un processo continuativo di riscrittura ideologica.
Le risposte che ci vengono fornite dalle intelligenze artificiali possono anche soddisfarci, ma come possiamo considerarle veramente attendibili? Come decidono quali informazioni includere e quali omettere? Perché scelgono di enfatizzare alcuni dettagli - di una vicenda storica, per esempio - anziché altri?
Le scatole nere creano «intelligenze nere», e queste ultime possono essere utilizzate come armi per rimaneggiare la realtà a fini propagandistici — finendo per resettare parti della nostra conoscenza condivisa, attraverso l’introduzione di falsi miti che entrano nell’immaginario mainstream.
Le fake truth, appunto.
Se le fake news erano notizie verosimili ma fasulle, le fake truth assomiglieranno di più a credenze popolari che si radicano nel nostro immaginario poco alla volta.
Vi ricordate quando ci dissero che ogni anno ingoiamo otto ragni durante il sonno, che i pesci rossi hanno la memoria corta, o che Cesare è morto dicendo Tu quoque, Brute, fili mi?
Le false verità sono sempre esistite: oggi però non solo possono raggiungere milioni di persone nel giro di attimi, ma soprattutto vengono generate usando strumenti - le intelligenze artificiali - governati da tecnocrati che hanno interessi da difendere e perseguire.
E come disse Ai Wewei, anche la verità più pura inizia a distorcersi nel momento in cui entra in un sistema di potere.
Chi controlla chi dovrebbe farlo?
Ipotizzando che sapremo riconoscere una fake truth, come faremo a smascherarla? A chi chiederemo di verificare che ciò che un’AI ci spaccia per certo?
Tutti gli indizi portano nella stessa direzione: ovvero, che il grande fact-checker delle AI saranno le AI stesse.
Cosa che genererà un cortocircuito sempre più evidente, e le cui storture possiamo intravedere già oggi.
Vi faccio un esempio recente.
Qualche giorno fa, nella mia homepage di X è comparso un post condiviso da un profilo chiamato “Iran News”, che non seguo. Nel post, un’immagine mostrava i grattacieli bombardati di una grande città, accompagnata dalla scritta «Hello Tel Aviv 👋».
Nei primi commenti alcuni utenti, insospettiti, invocavano Grok chiedendogli se la foto fosse vera — se mostrasse realmente la distruzione causata dalla controffensiva missilistica iraniana in Israele.
A una prima richiesta Grok rispondeva affermativamente: «L'immagine probabilmente mostra Tel Aviv dopo l'attacco missilistico iraniano del 13 giugno 2025, come suffragato dalle notizie riportate Da CBS, Reuters e altri media, che descrivono danni simili a edifici di grandi altezze».
A un altro utente, però, Grok restituiva un parere opposto: «La foto che hai condiviso sembra essere generata dall'intelligenza artificiale, non è una vera immagine dei danni a Tel Aviv. […] Probabilmente i danni mostrati sono stati aumentati per creare un effetto diverso».
La seconda “verità” è, come avrete forse intuito, quella giusta: l’immagine è contraffatta.
Che l’AI abbia due opinioni divergenti quando risponde a una stessa domanda, per altro così specifica, mette i brividi. Nel frattempo, l’algoritmo di X aveva promosso il contenuto nel feed mostrandolo a milioni di utenti.
Che alternative abbiamo per sbugiardare una falsità simile? Difficile da dire.
La sensazione è che ormai ci fidiamo più delle macchine che degli esseri umani, perché le prime ci danno la sensazione di essere più neutrali.
Tuttavia, delegare all’AI non solo la trasmissione del sapere e l’interpretazione degli eventi, ma anche il processo di verifica di se stessa, invocandola come salvatrice quando qualcosa non ci convince, rischia di generare multiple versioni di verità — ognuna creata, in fondo, solo per soddisfarci, personalizzata in base alle nostre opinioni e alle nostre idee.
I ragni e la ragnatela
Potremmo dunque definire le fake truth come delle fake news all’ennesima potenza.
Che non solo vengono ottenute modificando cronologie e facendo cherry picking di fonti, ma che potrebbero causare una cancellazione progressiva del senso comune e della prospettiva storica, soprattutto quando ci troviamo di fronte a eventi “contestati”.
La manipolazione del passato attraverso una distorsione retroattiva, così come la creazione di narrazioni fatte per apparire logiche ma basate volutamente su premesse manipolatorie, potrebbero risultare ben più subdole della “semplice” alterazione del qui e ora cui abbiamo assistito negli ultimi anni.
Certo, è inutile negarlo: gli L.L.M. finiranno per diventare la nuova enciclopedia del mondo, come nei secoli lo sono stati le stele, i libri, gli archivi. L’AI è qui per restare e per prendersi sempre più spazio in futuro.
Ma se davvero le affideremo il potere di trasformarsi in una macchina insindacabile che emette “giudizi universali”, dovremmo almeno cercare di ripensarne la natura, evitando che sia esclusivamente governata da soggetti privati con interessi economici e commerciali.
Se anche l’era delle falsa verità non dovesse avverarsi mai nella sua declinazione più apocalittica, il solo fatto che questa possibilità concreta esista dovrebbe spingerci a parlarne, e magari ad agire.
Perché, come ha scritto Bill Wasik, direttore del New York Times Magazine, «se la storia è scritta dai vincitori, come recita l’adagio, dobbiamo chiederci come i vincitori della corsa all'intelligenza artificiale potrebbero presto plasmare le storie del nostro passato».
Altrimenti, più che ingoiare ragni mentre dormiamo, rischiamo di restare intrappolati in una grande ragnatela. Anche, e soprattutto, da svegli.
Alla prossima Ellissi
Valerio
💻 Cosa sto leggendo
🟡 Netflix inaugurerà presto i suoi primi parchi a tema.
🟡 Tutto quello che non torna nel telefono dorato di Trump.
🟡 Cosa è andato storto a Freeda, la media company milanese che è appena stata messa in liquidazione.
🟡 Su Il Mondo, il podcast quotidiano di Internazionale, ho parlato dell’arrivo della pubblicità su Whatsapp.
🟡 La pagina di errore 404 del Financial Times è diversa dalle altre.
🟡 La redazione di Relevo, media sportivo spagnolo, ha organizzato un “funerale” per celebrare la fine della rivista.
🟡 Meta sta lavorando a una nuova serie di occhiali aumentati made in Italy, stavolta con Prada. Ne avevo parlato qui.
🟡 Hey, qualcuno ha detto AI ASMR?