
C’è un termine che sta avendo una fortuna notevole nel dibattito italiano sull’intelligenza artificiale: epistemia. Coniato da Walter Quattrociocchi e dal suo gruppo di ricerca, pubblicato su PNAS, accolto da Treccani come neologismo, ripreso dal Corriere della Sera, da Wired, da Repubblica, dall’Ansa, designa “la confortevole illusione di conoscenza prodotta dall’interazione con l’IA generativa dei grandi modelli linguistici”. Il termine è efficace, il fenomeno che descrive è reale, e nessuna persona ragionevole negherebbe che esista un rischio concreto legato alla plausibilità simulativa dei testi generati da un LLM.
Detto questo, a me pare che il problema inizi esattamente dove “epistemia” finisce.
Si potrebbe obiettare che un concetto scientifico non deve spiegare tutto: deve isolare un meccanismo specifico, renderlo osservabile, costruirci sopra metriche. È un’obiezione metodologicamente corretta. Ma nel caso di “epistemia” credo che non stia in piedi, per una ragione semplice: il concetto non è mai stato presentato dal suo autore come un meccanismo circoscritto. È stato proposto come un cambio di paradigma, come una chiave di lettura complessiva del rapporto tra AI e società. Il convegno alla Sapienza si intitolava “Epistemia, conoscenza, AI e società”. Wired l’ha eletta “parola dell’anno”. Treccani l’ha accolta come termine che designa una “nuova dinamica sistemica”. Se il concetto viene proposto a questa scala, è a questa scala che va interrogato.
L’acqua è idrogeno e ossigeno
Prendiamo l’assunto di base: l’AI generativa non produce conoscenza, produce testi statisticamente plausibili. È un’affermazione tecnicamente corretta. Non è un’etichetta superficiale: descrive un vincolo reale dell’architettura dei modelli linguistici, dalla modellazione probabilistica alla predizione autoregressiva del token successivo. Il punto non è negare la correttezza di questa descrizione, ma che fermarsi lì è come dire che l’acqua è composta da idrogeno e ossigeno. Vero, rigoroso, ma del tutto insufficiente se devi capire la differenza tra un bicchiere da bere e uno tsunami, tra irrigare un campo e allagare una città, tra insegnare a nuotare e annegare. La composizione chimica dell’acqua non ti dice nulla sulle relazioni che l’acqua genera con chi la usa, la subisce, ne ha bisogno o ne è escluso. Allo stesso modo, dire che l’AI genera “illusione di conoscenza” non ti dice nulla sulla differenza tra un utente che usa ChatGPT per scrivere un compito scolastico e un’istituzione che automatizza decisioni che riguardano persone che non hanno mai interagito con un LLM. La scala cambia tutto, il contesto cambia tutto, la relazione cambia tutto. Ed “epistemia” non mi sembra distingua nessuna di queste cose.
Dal difetto di sistema alla proprietà della relazione
Il primo limite del concetto riguarda la profondità con cui affronta il meccanismo. Va riconosciuto che Quattrociocchi ha descritto con lucidità il ruolo della sycophancy e del confirmation bias algoritmico nel generare l’illusione di conoscenza: il modello tende a confermare ciò che l’utente vuole sentirsi dire, lo fa benissimo, e il risultato è una versione automatica e amplificata del bias di conferma. Ma “epistemia” tratta queste dinamiche come difetti del sistema, non come proprietà di una relazione. Il mio concetto di doxastic loop, invece, tenta un passo ulteriore: descrivere il circolo come un ciclo di chiusura epistemica che opera simultaneamente su tre livelli. A livello computazionale, dove la plausibilità linguistica sostituisce la verità. A livello sistemico-sociale, dove gli output dell’AI rientrano nei dati di addestramento e amplificano le credenze già presenti. E a livello metaepistemico, dove il sistema non dispone di strumenti per verificare autonomamente la propria affidabilità. L’utente conferma ciò che il sistema produce, il sistema conferma ciò che l’utente già crede, i dati di addestramento incorporano gli output precedenti, e il circolo si chiude senza che nessuno dei poli coinvolti abbia mai incontrato un punto di resistenza esterno. Non si tratta di un difetto della macchina. Si tratta di una proprietà strutturale della relazione.
I singoli elementi di questa dinamica sono noti: i feedback loop informativi, la contaminazione dei dati, il bias di conferma mediato dall’interfaccia. Ma descriverli separatamente non è la stessa cosa che descriverne il funzionamento congiunto. È la differenza tra elencare ossigeno, calore e combustibile, e descrivere il triangolo del fuoco. I componenti sono nella letteratura; la struttura del ciclo e la sua proprietà emergente, la chiusura epistemica senza punto di verifica esterno, sono l’apporto analitico specifico.
Credo che il problema, in altre parole, non sia (solo) l’illusione di conoscenza prodotta dall’AI, ma la chiusura epistemica prodotta dal ciclo tra credenze dell’utente, output del sistema e retroalimentazione dei dati, un ciclo che non ha bisogno di errori per funzionare e che opera anche quando l’output è formalmente corretto. È questo ciclo, il doxastic loop, che andrebbe posto al centro dell’analisi, perché è lì che si genera non l’illusione di sapere, ma l’impossibilità strutturale di accorgersi di non sapere.
Chi non c’è
Il secondo limite è che “epistemia” non distingue i soggetti. Nella sua cornice, l’utente è un soggetto passivo, un paziente, come suggerisce del resto il suffisso medico-patologico del termine. E sempre uguale, sempre incapace di sapere, riconoscere, distinguere. Ma non tutte le persone che interagiscono con un LLM sono esposte allo stesso modo, e soprattutto non tutte le persone interessate dagli effetti dell’AI vi interagiscono. C’è un utente implicito, quello per cui il sistema è progettato senza che nessuno lo abbia mai dichiarato, e c’è un utente fantasma, chi non usa il sistema, non ne conosce l’esistenza, ma ne subisce le conseguenze: la persona il cui curriculum viene scartato da un filtro algoritmico, la paziente il cui profilo clinico non rientra nei dati di addestramento, la comunità le cui esigenze non esistono nel training set.
Si potrebbe replicare che questi sono problemi di governance algoritmica, non di epistemica, e che mescolare i livelli produce confusione. Ma è una replica che funziona solo se “epistemia” si presenta come concetto strettamente cognitivo. Se invece si propone, come fa, come “dinamica sistemica” che investe il rapporto tra AI e società, allora chi subisce gli effetti del sistema senza averci mai interagito non è un livello diverso del problema: è il punto cieco del concetto.
C’è poi una dimensione che “epistemia” non contempla: quella di chi ha bisogno degli LLM per compensare limiti reali. Persone non madrelingua, persone con dislessia o ADHD, o semplicemente prive di una formazione specifica in un dato ambito, usano l’AI generativa non per pigrizia cognitiva ma per necessità. Un concetto che patologizza l’interazione senza distinguere i contesti d’uso finisce per escludere proprio chi avrebbe più bisogno di essere incluso nella riflessione.
Una diagnosi senza terapia
Il terzo limite, il più grave sul piano pratico, è che il concetto è inerte. Non genera azioni. Non orienta politiche, non produce strumenti di valutazione, non suggerisce percorsi formativi, non distingue contesti operativi. Se sei una o un dirigente scolastico, una responsabile delle risorse umane, un decisore pubblico, e ti arriva “epistemia”, sai che c’è un problema. E poi? Vieti l’AI? Metti un bollino? Fai una campagna di sensibilizzazione? Il concetto non ti dà nessun appiglio. È una diagnosi che non si traduce in terapia.
È vero che in scienza i concetti non devono necessariamente essere prescrittivi: prima si isola il fenomeno, poi si progettano gli interventi. Ma “epistemia” circola da oltre un anno e gli interventi non sono arrivati. Quello che è arrivato è un convegno con istituzioni e piattaforme, la consacrazione lessicografica, e una serie di interviste in cui la risposta è invariabilmente: serve “una nuova alfabetizzazione epistemica”, serve “consapevolezza”. Il che è vero, ma è anche esattamente il tipo di raccomandazione che non cambia nulla se non si traduce in strumenti.
Esistono invece approcci che dal concetto arrivano all’azione. Una valutazione strutturata del rischio algoritmico può mappare dove e come un’organizzazione è esposta agli effetti distorsivi dell’AI, non in astratto, ma nei propri processi concreti. Un approccio relazionale all’intelligenza artificiale può guidare la progettazione dell’interazione tenendo conto dei contesti, delle competenze, dei bisogni reali delle persone coinvolte. Percorsi formativi progettati sulla base di questi strumenti possono fare ciò che la sola consapevolezza del rischio non fa: costruire competenza critica situata, non generica paura.
La cassa di risonanza
C’è infine un’osservazione che riguarda non il concetto in sé, ma il modo in cui è stato recepito. Un concetto che denuncia l’illusione di conoscenza prodotta dalla plausibilità e dalla coerenza narrativa ha attraversato una catena di riprese e amplificazioni, dal Corriere a Wired, da PNAS a Repubblica, dall’Ansa alla Treccani, che ha funzionato più come cassa di risonanza che come spazio di confronto. In oltre un anno di circolazione, le voci critiche strutturate sono rarissime. La più diretta è quella di Ivo Silvestro, giornalista e docente all’Università della Svizzera italiana, che nel novembre 2025 su The Late Thinker ha messo in discussione tanto la novità quanto l’utilità del termine, ricostruendo la genealogia filosofica del problema dai sofisti del Gorgia platonico fino al concetto di bullshit di Harry Frankfurt e sollevando il rischio che “epistemia” finisca per svalutare chi usa gli LLM per compensare limiti reali. Il pezzo non ha avuto circolazione paragonabile alle decine di riprese acritiche. Questa asimmetria non è un dettaglio: è il fenomeno stesso.
E va notato il modo in cui le posizioni divergenti vengono trattate. Tre settimane dopo l’articolo di Silvestro, Quattrociocchi ha pubblicato un post su Facebook in cui ha catalogato chi dissente in maschere satiriche: il “Cognitivista Magico”, il “Vigilante Epistemico”, il “Prompt Engineer Totemico”, il “Filosofo Riconduttivo”, l’”Abilitante”, il “Già-Visto-Platonicista”. Quest’ultimo, in particolare, viene descritto come chi ritiene che “si sapeva già tutto, fin dai tempi di Platone” e confonde “l’esistenza di analogie pseudo-culturali con la spiegazione di un meccanismo specifico”. Il “Filosofo Riconduttivo”, a sua volta, è chi si ostina a ricondurre ogni fenomeno a qualcosa di già noto, in una “forma colta di rimozione del problema”. Non è possibile affermare con certezza che si tratti di una replica all’articolo di Silvestro, che non viene nominato. Ma la coincidenza temporale e tematica è difficile da ignorare. In ogni caso, la struttura del gesto è chiara: chi non condivide il quadro non viene confutato, viene diagnosticato. Un concetto che chiude la conversazione invece di aprirla non è uno strumento di comprensione: è un dispositivo retorico. E un concetto che tratta qualsiasi posizione diversa dalla propria come un sintomo della malattia che descrive ha smesso di fare analisi e ha cominciato a fare immunizzazione. Chissà dove andrò a finire io.
Un punto di partenza, non di arrivo
Dare un nome a un fenomeno è un gesto importante. Ma un nome che non apre spazi di indagine, che non genera strumenti, che non si traduce in relazioni, rischi valutabili, formazione e azioni concrete, resta, con tutto il rispetto per chi lo ha proposto, un punto di partenza scambiato per un punto d’arrivo.
Ed è esattamente il tipo di illusione che “epistemia” pretendeva di descrivere.
Lascia un commento