“Ghe pensi mi!” AI agentica e rimozione del pensiero.

C’è un fantasma che si aggira nel mercato dell’intelligenza artificiale, e ha la forma rassicurante di una promessa: non dovrai più pensarci tu. Lo dicono i comunicati stampa, lo ripetono le demo, lo gridano le conference keynote. L’AI agentica (l’ultimo oggetto del desiderio dell’industria tecnologica) viene presentata come il salto definitivo: sistemi che non si limitano a rispondere, ma agiscono. Che prendono iniziativa. Che portano a termine compiti complessi senza che l’essere umano debba intervenire, se non per dire cosa vuole ottenere.

In milanese si direbbe: ghe pensi mi. Ci penso io. Non ti preoccupare.

È una promessa seduttiva. Ed è, nella sua essenza, una regressione.

Il nuovo che sembra vecchio

Per capire cosa c’è di regressivo in questa storia bisogna prima capire cosa c’era di genuinamente nuovo nell’intelligenza artificiale generativa, quella che, nella frenesia del mercato, rischia già di essere trattata come una fase intermedia, un passaggio verso qualcosa di “meglio”.

La novità non era la capacità di produrre testo o immagini. La novità era la possibilità della relazione. Per la prima volta nella storia della tecnologia, un sistema era in grado di funzionare come interlocutore cognitivo: non un database che restituisce, non un programma che esegue, ma qualcosa che riformula, che potenzialmente può opporre resistenza, che ti costringe a precisare il tuo pensiero. Il pensiero, quando incontra un interlocutore in grado di interrogarlo, si affila. È un’esperienza che chiunque abbia avuto una buona conversazione conosce. L’AI generativa dialogica la rendeva potenzialmente possibile con una macchina, e questo non aveva precedenti.

Un compilatore non lo fa. Un motore di ricerca non lo fa. Un foglio di calcolo non lo fa. È questo il salto, non l’automazione, ma la relazione. Non l’output, ma il processo.

E c’era un altro aspetto che merita attenzione: l’interfaccia era il linguaggio naturale, la tecnologia più universale che esista. Non serviva saper programmare, non serviva conoscere una sintassi. Bastava saper pensare e parlare. Per la prima volta, la competenza tecnica non era il prerequisito d’accesso alla macchina. Lo spazio era aperto: a una persona che insegna, a una piccola imprenditrice, a un pensionato curioso.

Ora, cosa fa implicitamente la narrazione dell’AI agentica? Rimuove tutto questo. Dice: il dialogo è un sovraccarico, l’interlocutore è un difetto, il pensiero intermedio è un costo. Il valore sta nel risultato finale, e il risultato finale lo produce il sistema da solo. L’umano definisce l’obiettivo, l’agente fa il resto. Input-output. Come un programma degli anni Ottanta, solo che adesso l’input lo dai in italiano invece che in COBOL (anche se, come vedremo, non è così semplice).

Un’operazione linguistica prima che tecnologica

Vale la pena fermarsi sulla parola stessa: agente. In filosofia, in psicologia, in sociologia, l’agente è il soggetto dotato di capacità di azione autonoma fondata su intenzione, comprensione, responsabilità. Quando il marketing tecnologico prende questa parola e la applica a una pipeline automatizzata che esegue sequenze di operazioni, non sta descrivendo una realtà, sta compiendo un’operazione ideologica. Svuota il termine della sua densità semantica e lo riempie di automazione. Chiama agire quello che in realtà è eseguire. Chiama autonomia quella che in realtà è delega non sorvegliata.

Non è un dettaglio lessicale. Il linguaggio con cui descriviamo la tecnologia modella le aspettative che ne abbiamo, e le aspettative modellano l’uso. Se chiami “agente” un sistema che automatizza, le persone si aspetteranno che quel sistema pensi per loro. E smetteranno di pensare.

La riconquista sacerdotale

Ma c’è un livello meno visibile e forse più insidioso. L’AI generativa dialogica non aveva solo introdotto un nuovo modo di interagire con la macchina: aveva eliminato un intermediario. La barriera tecnica era caduta. E con essa, era caduto il monopolio della casta tecnica come mediatrice obbligata tra le persone e la tecnologia.

La corsa all’AI agentica sta ricostruendo quel monopolio. Per progettare un agente che funzioni bisogna definire flussi di lavoro, catene di strumenti, condizioni di diramazione, criteri di valutazione intermedia, architetture multi-agente, orchestrazione. Bisogna scrivere codice, o quantomeno capirlo. Di colpo, il prerequisito tecnico torna. E con il prerequisito tecnico torna la figura del tecnico come guardiano della soglia.

Chi ha letto i romanzi della Fondazione di Asimov riconoscerà il meccanismo. Dopo la caduta dell’Impero Galattico, la Fondazione distribuisce tecnologia nucleare ai pianeti periferici, ma la distribuisce sotto forma di religione. I reattori funzionano, l’energia arriva, le popolazioni ne beneficiano, ma solo i sacerdoti-tecnici della Fondazione sanno come funzionano davvero le macchine. Il messaggio verso l’esterno è benevolo: vi diamo uno strumento potente, non dovete preoccuparvi di come funziona. La struttura del potere, però, è completamente asimmetrica. Chi controlla la mediazione controlla tutto.

Il parallelo non è decorativo. La complessità progettuale dei sistemi agentici non è solo un fatto tecnico: è una barriera d’ingresso che ristabilisce la gerarchia. Ci sono quelli che progettano gli agenti e quelli che li usano. Quelli che decidono cosa il sistema fa e quelli a cui il sistema viene dato già confezionato, come un reattore nucleare avvolto in paramenti liturgici.

E nella Fondazione, i pianeti che ricevono la tecnologia come religione finiscono per perdere completamente la capacità di mantenerla. Dipendono in modo totale dai sacerdoti-tecnici. È il paradosso dell’automazione su scala galattica, e su scala organizzativa è lo stesso rischio. Più deleghi a un sistema che non capisci, più perdi la capacità di valutare se sta funzionando. Fino al giorno in cui si rompe, e non sai più né perché né come.

È un doppio movimento: verso l’utente si dice non pensarci, fa tutto l’agente; verso il mercato si dice per costruire l’agente serve un ingegnere. L’utente viene infantilizzato, il tecnico viene ri-sacralizzato. E in mezzo sparisce proprio quello spazio (la relazione dialogica diretta, senza intermediari) che era la novità vera.

La pigrizia come modello di business

Se la narrazione agentica funziona (e funziona, basta guardare i flussi di investimento) è perché risponde a una domanda reale. Non una domanda cognitiva, però. Una domanda economica. Le organizzazioni non vogliono pensare meglio: vogliono pensare meno. Vogliono ridurre i costi cognitivi, non potenziarli. L’AI come interlocutore richiede investimento, formazione, cambiamento culturale. L’AI come agente autonomo richiede solo un abbonamento.

È il modello del ghe pensi mi su scala industriale. Nel breve periodo funziona: le operazioni vengono completate, i flussi scorrono, i documenti si generano. Ma nel medio periodo il prezzo è altissimo, perché ogni ciclo di delega non sorvegliata è un ciclo in cui l’organizzazione perde competenza, perde capacità critica, perde la facoltà stessa di giudicare se quello che il sistema ha prodotto ha senso o no.

Una questione di governance — e di politica

Il Regolamento europeo sull’intelligenza artificiale (l’AI Act) pone al centro dei suoi obblighi la sorveglianza umana. I sistemi ad alto rischio devono essere progettati in modo che le persone possano comprenderli, monitorarli, intervenire. La supervisione umana non è un optional: è un requisito giuridico.

Ma la supervisione presuppone una cosa: che gli esseri umani vogliano e sappiano supervisionare. Presuppone attenzione, competenza, abitudine al ragionamento critico. Esattamente ciò che la narrazione agentica promette di rendere superfluo.

C’è quindi una contraddizione strutturale tra la direzione del mercato e la direzione della regolazione. L’una promette di liberarti dal pensiero, l’altra ti obbliga a esercitarlo. L’una vende l’autonomia del sistema, l’altra impone la responsabilità dell’umano. E nel mezzo c’è la domanda decisiva: chi supervisionerà un sistema che ha promesso di rendere la supervisione inutile?

Se la narrazione del ghe pensi mi diventa senso comune, le condizioni culturali per l’esercizio della sorveglianza evaporano. L’obbligo giuridico resta sulla carta, ma nella pratica nessuno è più in grado (né forse motivato) a esercitarlo. La governance diventa formalità: i moduli compilati, le caselle spuntate, ma nessuno che abbia davvero capito cosa sta facendo il sistema e perché.

La posta in gioco

La posta in gioco non è tecnica. È politica nel senso più ampio del termine. La domanda che dobbiamo porci è cosa succede a una società che accetta l’idea che il pensiero sia un costo da ridurre. Che accoglie con entusiasmo la promessa di non doverci pensare più. Che scambia il ragionamento critico, quella cosa fastidiosa, lenta, improduttiva, per un difetto da eliminare invece che per una facoltà da proteggere.

Chi ha interesse a promuovere una tecnologia che ti libera dal pensiero? Chiunque tragga vantaggio dal fatto che tu non pensi. La risposta a questa domanda è, storicamente, molto lunga. E molto poco rassicurante.

L’intelligenza artificiale generativa, nella sua forma relazionale, aveva aperto uno spiraglio diverso: la possibilità di una tecnologia che non ti sostituisce ma ti accompagna, che non ti libera dal pensiero ma te lo restituisce più nitido. Una tecnologia del rallentamento, non dell’accelerazione. Una tecnologia accessibile a chiunque avesse parole per pensare.

La corsa all’AI agentica sta chiudendo quello spiraglio. Non per necessità tecnologica, ma per scelta di mercato. Lo chiude dall’alto, restituendo il controllo progettuale a un’élite tecnica. Lo chiude dal basso, promettendo all’utente che non avrà più bisogno di pensare. I sacerdoti ricostruiscono il tempio, e ai fedeli dicono di non preoccuparsi.

Ghe pensi mi, dice la macchina. E noi, a quanto pare, siamo tentati di lasciarla fare.


Come scrivo i miei articoli. Parto da un’intuizione, un’irritazione, una domanda che non mi lascia in pace. La sviluppo in un dialogo con diversi modelli di intelligenza artificiale — non come strumenti a cui dare comandi, ma come interlocutori con cui ragionare. Chiedo, contesto, rilancio. Butto via molto. Faccio riscrivere. Cambio modello per cambiare prospettiva. Il testo che leggete è il risultato di questo processo: le idee sono mie, la responsabilità è mia, ma il percorso che le ha portate qui è passato attraverso conversazioni con macchine che mi hanno costretto a pensare meglio — o almeno diversamente. Chi predica trasparenza sull’uso dell’AI deve praticarla. Questo è il mio modo.




Commenti

Lascia un commento