AI, merce o relazione?

Il paradosso del mercato della consulenza


Chiara Arlati ha scritto un post su LinkedIn che mi ha fermato. Non perché dicesse qualcosa che non sapevo, ma perché diceva qualcosa che sapevo, con parole arrivate da un percorso completamente indipendente dal mio. La sua tesi, in sintesi: l’interazione con l’AI è più potente dell’algoritmo stesso, e quello che manca alla maggior parte degli utenti non è la competenza tecnica ma una sorta di “AI theory of mind”, la capacità di comprendere come ragiona il sistema per poterci lavorare davvero.

Quando l’ho letto, ho riconosciuto il nucleo di qualcosa su cui lavoro da più di due anni. E la cosa interessante non è la convergenza in sé: è che sta emergendo in parallelo da professionisti diversi, in contesti diversi, senza alcun coordinamento. Non è una coincidenza. È un segnale di mercato. Significa che un certo strato dell’offerta di consulenza e formazione sull’AI ha maturato, attraverso la pratica, una comprensione del proprio oggetto di lavoro che il mercato non sta ancora chiedendo. Questo scollamento è il tema che voglio analizzare qui.


Un oggetto che non entra nelle categorie

Per trent’anni il mercato della tecnologia ha funzionato con un paradigma lineare: compri lo strumento, impari la procedura, ottieni il risultato. Ha funzionato per il PC, per Excel, per i gestionali, per i sistemi integrati. La formazione era addestramento: ti insegno la sintassi, tu la esegui. La consulenza era implementazione: ti installo il sistema, ti configuro i processi.

L’AI generativa rompe questo paradigma in un modo che non è stato ancora pienamente compreso, nemmeno da molti di quelli che la vendono. L’AI generativa è contemporaneamente tre cose: una merce (un prodotto che si acquista, con un prezzo, un abbonamento, un modello di ricavo), uno strumento (un sistema che esegue compiti), e un interlocutore (un’entità con cui si costruisce un’interazione il cui esito dipende dalla qualità della relazione). Nessuna tecnologia precedente ha presentato questa triplice natura. Un foglio di calcolo non cambia il suo risultato in funzione di come glielo chiedi. Un gestionale non produce esiti radicalmente diversi a seconda della qualità cognitiva dell’interazione che hai con esso. L’AI generativa sì. Il suo risultato è funzione diretta non solo dell’istruzione tecnica, ma della capacità dell’utente di costruire un dialogo, di comprendere la logica del sistema, di adattare la propria domanda in tempo reale.

Questo significa che vendere AI come si è sempre venduta la tecnologia (compra, impara, esegui) è una riduzione che non distorce solo il messaggio: distorce l’oggetto stesso.


Il mercato che non sa cosa sta vendendo

Chi vende AI oggi, a tutti i livelli, ha un problema che in larga parte non riconosce. I grandi produttori tecnologici vendono piattaforme e abbonamenti: il loro modello di ricavo richiede diffusione di massa, e la diffusione di massa richiede semplificazione. Microsoft Copilot è esattamente questo: il tentativo di digerire in anticipo la dimensione relazionale, di trasformare la competenza dell’utente in interfaccia, di rendere l’interazione il più possibile simile a quella con un programma tradizionale. Non è una scelta sbagliata in termini commerciali. È una scelta che riduce sistematicamente il potenziale dello strumento per renderlo vendibile.

Lo stesso accade, su proporzioni diverse, in gran parte della formazione e della consulenza. Il mercato della consulenza AI cresce a ritmi impressionanti: le proiezioni indicano una crescita da circa 11 miliardi di dollari nel 2025 a oltre 90 miliardi entro il 2035. Ma questa crescita riflette prevalentemente la domanda di implementazione tecnica e di formazione procedurale. È il modello che si diffonde più facilmente, perché è il modello che il mercato sa già comprare.

C’è un parallelo che trovo illuminante: la differenza tra il manuale di auto-aiuto e la psicoterapia. Il manuale vende una procedura (“fai questi passi e risolvi il problema”) e si diffonde senza limiti. La psicoterapia non si diffonde allo stesso modo perché il suo valore si genera dentro una relazione specifica, non replicabile, non standardizzabile. Non è un difetto della psicoterapia: è la natura dell’oggetto. La consulenza AI di tipo relazionale ha esattamente lo stesso problema strutturale: il suo valore è reale, ma resiste alla mercificazione.


I numeri dello scollamento

Quello che percepisco nella pratica quotidiana, e che Chiara Arlati percepisce evidentemente dalla sua, ha una base empirica solida.

La McKinsey Global Survey 2025, condotta su quasi duemila organizzazioni in 105 paesi, mostra che l’88% delle organizzazioni usa l’AI in almeno una funzione aziendale. Sembra un dato di maturità. Ma la stessa ricerca rivela che quasi due terzi di queste organizzazioni non ha ancora iniziato a estendere l’uso dell’AI a livello di impresa, restando in fase di sperimentazione o di prova. Solo il 39% rileva un impatto sul margine operativo, e la maggior parte lo stima inferiore al 5%.

BCG, nella sua ricerca 2025, quantifica il divario con ancora maggiore precisione: solo il 5% delle aziende mondiali genera valore reale dall’AI. Queste aziende ottengono cinque volte gli incrementi di ricavi e tre volte le riduzioni di costo rispetto alle altre. Il 60% non sta realizzando alcun valore materiale, nonostante investimenti significativi. E il dato più rilevante per il nostro ragionamento: ciò che distingue quel 5% non è il budget investito, non è il modello AI scelto, ma la capacità di ridisegnare i processi di lavoro e di sviluppare una visione trasformativa.

In Italia, i dati Randstad confermano lo stesso schema: più del 50% dei lavoratori riconosce i vantaggi dell’AI, ma solo il 13% sta ricevendo formazione adeguata.

Questi numeri descrivono esattamente la situazione: un uso larghissimo e superficiale, una trasformazione reale limitata a una minoranza, e un enorme spazio tra consapevolezza dichiarata e capacità effettiva. La differenza tra chi usa l’AI e chi ne ricava valore non è una differenza tecnica. È una differenza relazionale, cognitiva, di modalità di interazione.


Perché la “domanda” non domanda

Se il divario è così evidente nei dati, perché la domanda di mercato non si orienta spontaneamente verso chi potrebbe colmarlo? Ci sono almeno cinque meccanismi in gioco.

Il primo è il modello mentale ereditato. Trent’anni di informatizzazione hanno consolidato un’equazione in cui tecnologia equivale a procedura e procedura equivale a risultato. Questo modello funziona come filtro interpretativo: quando un’organizzazione si avvicina all’AI, porta con sé l’aspettativa che basti imparare “come si fa” per ottenere risultati. Abbandonare questo schema richiede un’esperienza concreta del suo fallimento, e molte organizzazioni non sono ancora arrivate a quel punto.

Il secondo è l’effetto dell’offerta semplificatrice. Chi arriva per primo in un mercato ne definisce le aspettative, e chi è arrivato per primo nel mercato della formazione AI è chi ha semplificato il messaggio al massimo. Questo ha occupato tutto lo spazio comunicativo e ha calibrato le aspettative verso il basso. Quando un’organizzazione ha già acquistato quella promessa, proporre un approccio relazionale non appare come un’evoluzione ma come una complicazione.

Il terzo è un errore di attribuzione. Le organizzazioni che usano l’AI in modo superficiale e non ottengono risultati significativi raramente attribuiscono il problema alla qualità dell’interazione. Lo attribuiscono allo strumento (“questa AI non funziona per il nostro settore”) o alla tecnologia in generale (“l’AI non è ancora matura”). Questo protegge il modello mentale esistente e alimenta confusione anziché crescita.

Il quarto è una contraddizione temporale. L’AI viene venduta come risparmio di tempo: automatizza, velocizza, semplifica. Ma sviluppare una competenza relazionale con l’AI richiede esattamente l’opposto: investimento di tempo, riflessione, pratica deliberata. C’è una contraddizione di partenza tra la promessa di mercato e ciò che serve per realizzarla davvero.

Il quinto, forse il più profondo, è la costruzione di un utente implicito che non corrisponde all’utente reale. Ogni prodotto AI, ogni corso, ogni proposta di consulenza presuppone un certo tipo di utente, con certe competenze, certe aspettative, un certo modo di apprendere. Ma quell’utente è un’astrazione costruita per far funzionare il modello commerciale, non una descrizione di chi effettivamente si presenta. Il divario tra l’utente implicito e l’utente reale è uno dei fattori meno visibili e più potenti dello scollamento tra domanda e offerta.


Il divario non è temporale, è categoriale

C’è un’idea consolatoria che circola, più o meno esplicitamente, tra i consulenti più avanzati: “la domanda maturerà”. L’idea è che il mercato stia semplicemente procedendo più lentamente, che serva tempo, che prima o poi le organizzazioni capiranno che l’approccio procedurale non basta e cercheranno qualcosa di diverso.

Non credo che le cose stiano così, o almeno non in modo così lineare.

Il problema non è che la domanda sia in ritardo su un percorso che porta verso di noi. Il problema è che il modello mentale con cui il mercato categorizza le tecnologie non ha una casella per un oggetto che è insieme prodotto e interlocutore. Non è un ritardo: è un’incompatibilità di categoria. Per il mercato, un prodotto si compra e un interlocutore si assume. L’AI generativa non è né l’uno né l’altro, o è entrambi, e il mercato non sa come valutare, classificare, acquistare qualcosa che sfugge a entrambe le categorie.

Questo significa che la domanda non sta andando lentamente verso dove siamo noi. Sta andando altrove: verso l’AI come servizio integrato nei prodotti che già usa, verso un livello di utilizzo “sufficientemente buono” che non richiede alcuna competenza relazionale. Non perché sia la scelta migliore, ma perché è la scelta che il mercato sa già fare.


Tre scenari di prospettiva

Se questa analisi è corretta, cosa succede nei prossimi anni? Vedo tre scenari possibili, non necessariamente alternativi.

Il primo, il più probabile nel breve e medio periodo, è la vittoria della standardizzazione. I grandi produttori fanno quello che hanno sempre fatto: assorbono le intuizioni dell’avanguardia e le incorporano nel prodotto. Microsoft sta già trasformando la competenza relazionale in interfaccia attraverso Copilot. Google fa lo stesso. Il mercato si stabilizza su un livello medio di utilizzo: meglio di oggi, ma standardizzato. La consulenza procedurale (“ti insegno a usare lo strumento”) viene progressivamente eliminata, perché lo strumento impara a spiegarsi da solo. La consulenza relazionale sopravvive ma resta confinata a una nicchia, servendo quel segmento di organizzazioni che intuiscono di aver bisogno di qualcosa di più senza ancora saper definire cosa.

Il secondo scenario, plausibile nell’arco di due-quattro anni, è che la differenza di risultati diventi visibile. Man mano che l’uso dell’AI si diffonde e si normalizza, le organizzazioni cominciano a confrontare i risultati e scoprono varianze enormi a parità di strumento. Il dato BCG (5% genera valore reale, 60% non ne genera affatto) smette di essere una statistica e diventa un problema concreto, percepito e correttamente attribuito. La domanda cambia natura: non più “quale strumento compro?” ma “perché il mio concorrente ottiene risultati diversi con lo stesso identico strumento?”. È il momento in cui il divario relazionale diventa un problema riconosciuto. Ma qui si apre la questione critica: chi intercetta quella domanda quando emerge? Se i consulenti artigiani non hanno nel frattempo costruito un linguaggio riconoscibile, una metodologia codificata, una base empirica dimostrabile, quella domanda viene intercettata dai grandi integratori di sistemi, da Accenture, da Deloitte, dalla stessa McKinsey, che riconfezionano l’approccio relazionale in metodi proprietari replicabili. Con più risorse, più riconoscibilità e più accesso al mercato di noi.

Il terzo scenario, di lungo periodo, è il più interessante e il meno prevedibile. Se l’AI continua a evolvere nella direzione attuale, verso agenti sempre più autonomi, sistemi che integrano più modalità di interazione, memoria persistente, dialoghi prolungati nel tempo, la dimensione relazionale non diminuisce: si amplifica. A quel punto non stiamo più parlando di “usare bene uno strumento” ma di gestire un sistema cognitivo ibrido in cui esseri umani e sistemi AI collaborano in modo continuativo. La competenza necessaria non è più “consulenza AI” in nessuna delle accezioni attuali del termine. È qualcosa che somiglia di più alla mediazione cognitiva, alla facilitazione di processi di pensiero distribuiti, a una disciplina che oggi non ha ancora nome né categoria professionale. In questo scenario, chi oggi fatica a vendere la propria consulenza relazionale potrebbe scoprire di aver sviluppato, attraverso anni di pratica, le competenze fondative di un campo che ancora non esiste come mercato.


Quello che è necessario fare adesso

Se questa lettura ha una qualche validità, le implicazioni per chi si trova dove ci troviamo noi, consulenti e formatori che hanno maturato un approccio relazionale all’AI, sono abbastanza chiare.

La partita non è vendere meglio quello che facciamo. È codificarlo. Documentarlo. Renderlo trasmissibile, insegnabile, dimostrabile. Costruire una base empirica che mostri, con dati misurabili, la differenza tra un uso procedurale e un uso relazionale dell’AI. Non perché i dati da soli convincano il mercato, ma perché senza dati restiamo nel territorio dell’intuizione professionale, che è prezioso ma non difendibile quando arrivano concorrenti con più capacità di diffusione.

E questo lavoro di codifica non va fatto in solitudine. Va fatto tra colleghi, tra professionisti che stanno convergendo sulle stesse conclusioni da percorsi diversi, come è successo con Chiara Arlati e come sta probabilmente succedendo con altri che ancora non si sono incrociati. Il primo passo non è costruire un linguaggio per parlare ai clienti. È costruire un linguaggio per parlare tra noi: una base comune per descrivere il divario, per nominare la competenza, per misurare la differenza.

Il rischio reale non è che i colossi ci copino. È che reinventino la stessa cosa senza sapere che esistiamo, perché quando hanno deciso di entrarci il linguaggio per descrivere quello che facciamo non era ancora nel discorso pubblico. La finestra per evitare che questo accada è aperta adesso. Non lo sarà per sempre.

Una proposta concreta

Siamo in una fase in cui diversi professionisti, indipendentemente l’uno dall’altro, stanno arrivando alle stesse conclusioni sulla natura relazionale dell’AI e sul divario tra ciò che il mercato chiede e ciò che effettivamente serve. Questa convergenza spontanea è una risorsa che non possiamo permetterci di sprecare restando ciascuno nel proprio angolo.

Propongo tre cose, tutte praticabili subito.

La prima: cominciare a documentare i casi. Non come testimonial commerciali, ma come base empirica. Ogni volta che un intervento di consulenza relazionale produce risultati misurabili e diversi da quelli che il cliente otteneva con un approccio procedurale, quel caso va registrato, descritto, reso confrontabile. Abbiamo bisogno di una casistica condivisa, non di aneddoti individuali.

La seconda: costruire un vocabolario comune. Chiara Arlati parla di “AI theory of mind”, io parlo di approccio relazionale e di esomente, altri useranno altre formulazioni. Non serve convergere su un’unica terminologia, ma serve un lessico che ci permetta di riconoscerci e di essere riconoscibili. Se ciascuno di noi descrive la stessa cosa con parole incomparabili, per il mercato non esistiamo come campo ma solo come individui isolati.

La terza: aprire uno spazio di confronto tra pari. Non un’associazione, non un coordinamento formale, ma un luogo, anche solo digitale, in cui chi sta facendo questo lavoro possa condividere metodi, risultati, difficoltà, e soprattutto verificare se quello che ciascuno osserva nella propria pratica trova conferma nell’esperienza degli altri. La convergenza tra il mio percorso e quello di Chiara Arlati è avvenuta per caso, su LinkedIn. Non possiamo affidarci al caso.

Chi si riconosce in questa analisi sa già chi è. La questione è se vogliamo continuare a scoprirci a posteriori oppure cominciare a cercarci adesso.


Commenti

Lascia un commento