
La governance ai tempi della AI
Fausto Walter Turco ha sollevato questa settimana una questione che merita di essere presa sul serio. L’87% dei professionisti contabili usa ChatGPT come strumento principale, fuori dagli ecosistemi in cui lavora ogni giorno. I collaboratori usano account personali per elaborare dati sensibili senza che la direzione lo sappia. La sua proposta è chiara: investire in strumenti integrati, costruire una policy, governare l’adozione invece di subirla.
È un ragionamento solido. E mi ha fatto venire voglia di continuarlo, perché credo che il problema abbia radici più profonde di quanto la scelta dello strumento possa raggiungere.
L’AI amplifica, non trasforma
C’è un principio che nella mia esperienza di consulenza torno a verificare ogni volta, con ogni organizzazione, indipendentemente dal settore: l’intelligenza artificiale non trasforma le condizioni esistenti. Le amplifica.
Un processo ben documentato, con dati puliti e responsabilità chiare, diventa più veloce e più efficiente. Un processo caotico, con dati sparsi e ownership confusa, diventa caotico a velocità dieci volte maggiore. Con forma impeccabile, con output dall’aspetto professionale — ma sempre caos.
Questo vale per qualsiasi strumento. La differenza tra uno strumento isolato e uno integrato nell’ecosistema aziendale è reale, e Turco ha ragione a sottolinearla. Ma se il processo sottostante non regge, non reggerà meglio perché lo strumento è integrato in Outlook. Il danno diventerà tracciabile, conforme, certificato. Ma resterà danno.
Prima dello strumento, i processi
Se l’AI amplifica quello che trova, allora prima di chiedersi quale strumento adottare bisogna chiedersi qualcosa di diverso: i processi su cui vogliamo applicarla sono pronti a riceverla?
Non tutti i processi sono uguali. Alcuni hanno documentazione solida, procedure standardizzate, dati strutturati, indicatori misurati, responsabilità definite. Sono pronti. L’AI ci trova terreno fertile, il ritorno è rapido e misurabile. Si comincia da qui.
Altri hanno un potenziale enorme ma vivono nel disordine — archivi sparsi, procedure tacite, dati incoerenti, responsabilità diffuse. Qui l’AI non accelera il risultato: accelera il danno. Non si introduce nessuno strumento finché il processo non è stato bonificato. Poi si valuta.
Altri ancora sono caotici ma anche marginali. Il costo della bonifica supera il beneficio dell’automazione. Si lasciano stare.
E infine ci sono processi solidi ma a basso impatto, dove l’AI aggiungerebbe complessità senza valore proporzionato. Il presidio umano resta la scelta più sensata.
Quattro situazioni radicalmente diverse. Nessuna si risolve con la scelta dello strumento. Ma sapere in quale ci si trova cambia tutto il resto.
Un nuovo soggetto, non un nuovo programma
C’è un aspetto di questa transizione che tendiamo a sottovalutare, forse perché ci obbliga a ripensare categorie che davamo per acquisite. L’AI non è un software nel senso in cui lo sono stati i gestionali, i fogli di calcolo, le piattaforme di posta elettronica. Quelli erano strumenti: facevano cose definite, le facevano sempre allo stesso modo, si installavano e si configuravano. L’AI è qualcosa di diverso. Legge documenti, elabora dati, produce output che entrano nei processi decisionali, interagisce con i collaboratori in modi che variano ogni volta. È un soggetto nuovo dentro l’organizzazione, con margini di imprevedibilità che nessun programma tradizionale ha mai avuto.
E questo cambia radicalmente cosa significa governare.
Non puoi governare un soggetto organizzativo con gli stessi criteri con cui governi l’acquisto di un gestionale. Eppure è quello che la maggior parte delle organizzazioni sta facendo — o tentando di fare. Qualche settimana fa un amico, sessantenne, presidente di un’importante società di consulenza, mi ha chiesto se Copilot fosse già nei programmi che usava ogni giorno. Usava Word, Excel, Outlook — strumenti in cui l’AI è già presente e operativa — senza averne consapevolezza. Non è un caso isolato. È una condizione diffusa, e non dipende dalla pigrizia o dalla disattenzione di chi dirige. Dipende dal fatto che questa tecnologia è entrata nelle organizzazioni a una velocità che non ha lasciato il tempo di capire cosa stava entrando.
Il risultato è un paradosso: chi dovrebbe decidere la strategia AI spesso non ha ancora gli elementi per comprenderne la natura. Non servono competenze tecniche da ingegnere informatico. Serve capire che l’AI non è un fornitore esterno a cui si dà un incarico e si aspetta il risultato. È un’entità che lavora dentro i processi, ogni giorno, e il cui impatto dipende interamente dalla qualità di ciò che trova.
Due fotografie della stessa organizzazione
Il fenomeno che Turco chiama BYOAI — collaboratori che usano strumenti non autorizzati — ha una spiegazione più semplice e meno allarmante di quanto sembri: nasce da un vuoto. L’organizzazione non ha offerto un’alternativa praticabile, e ciascuno ha colmato quel vuoto come poteva. Quando si chiede alle persone perché usano ChatGPT con il proprio account personale, le risposte sono sempre le stesse: funziona, è veloce, nessuno mi ha dato altro, la policy ufficiale non corrisponde a quello che devo fare davvero.
Ma c’è qualcosa di più sottile sotto la superficie. Il management ha una percezione dei rischi, delle competenze, dei bisogni. I collaboratori ne hanno un’altra. Spesso sono molto diverse. Per questo trovo utile partire sempre da un confronto onesto tra questi due punti di vista — due fotografie della stessa organizzazione scattate da angolazioni diverse. Il divario che emerge è quasi sempre sorprendente, e quasi sempre è il vero punto di partenza. Perché una governance che non parte dalla realtà operativa — ma solo dalle intenzioni di chi dirige — funziona sulla carta. Non nei comportamenti.
Cambiare le abitudini, non solo le regole
Anche quando la diagnosi è fatta, i processi sono mappati e la governance è formalizzata, il lavoro più difficile deve ancora cominciare: far sì che le persone cambino davvero il modo in cui lavorano.
Nella mia esperienza — e credo che chiunque si occupi di formazione aziendale possa confermarlo — la grande maggioranza dei percorsi formativi sull’AI non produce cambiamenti duraturi nell’uso quotidiano. Non perché i contenuti fossero sbagliati, ma perché il cambiamento non è stato costruito con le persone, sui loro processi reali, producendo strumenti che restano in azienda dopo che il formatore è andato via. Una sessione su come usare uno strumento non cambia le abitudini. Un percorso che produce un manuale operativo personalizzato, template riutilizzabili, responsabilità distribuite e un sistema di aggiornamento continuo — questo cambia le abitudini. La differenza non è di quantità: è di metodo.
Una sequenza, non una scorciatoia
Messa in fila, la sequenza che propongo è questa.
Mappare la realtà esistente. Chi usa cosa, con quali dati, con quale consapevolezza. Inclusa la shadow AI che già circola e che nessuno ha autorizzato.
Costruire nel management una comprensione reale di cosa sia l’AI — non un corso tecnico, ma la consapevolezza che si tratta di un soggetto organizzativo nuovo, non di un programma da installare.
Confrontare la percezione di chi decide con quella di chi opera. Due punti di vista, due fotografie, un divario da misurare prima di scrivere qualsiasi regola.
Valutare i processi. Quali sono pronti per l’AI, quali vanno bonificati prima, quali vanno lasciati stare. Prima della scelta di qualsiasi strumento.
Costruire la governance formale. Policy, responsabilità, conformità normativa.
Formare le persone sui processi reali, producendo strumenti concreti che restano e che evolvono.
La proposta di Turco — strumenti integrati, policy, investimento per persona — si inserisce in questa sequenza e ne è parte necessaria. Ma funziona davvero solo se il terreno è stato preparato. Altrimenti rischiamo di costruire dal tetto.
La domanda giusta, con una premessa
La domanda “l’AI nella tua organizzazione è una scelta strategica governata o un’infiltrazione silenziosa?” è la domanda giusta. Aggiungerei solo che per rispondere serve prima un atto di onestà che riguarda tutti noi, me compreso: sappiamo davvero cosa è entrato nelle nostre organizzazioni? I processi su cui stiamo puntando reggono il peso dell’amplificazione? E la governance che stiamo costruendo parte da quello che succede davvero, o da quello che pensiamo stia succedendo?
Lascia un commento