Non tutti i ristoranti sono uguali. E nemmeno i modelli di AI.

Una metafora

Immaginate di essere clienti abituali di diversi ristoranti. Avete le vostre preferenze, il vostro ritmo, il vostro modo di ordinare. In certi locali il cameriere vi conosce: sa che non volete essere affrettati, che preferite capire cosa c’è nel piatto prima di mangiarlo, che apprezzate una conversazione sul menu più che un piatto che arriva in fretta senza spiegazioni. In altri posti il personale è efficientissimo, porta tutto subito, anticipa l’ordine — ma secondo la propria logica, non la vostra. Se non dite esattamente cosa volete, e come, e in quale ordine, vi arriva qualcosa che non avete chiesto. Tecnicamente perfetto. Ma non è quello che volevate.

Questa è la differenza reale tra lavorare con Claude, con Gemini, con ChatGPT. Non è una questione di qualità assoluta. È una questione di a chi il modello è stato progettato per dare ascolto: al compito, o al cliente.

Gemini è costruito per eseguire. Ha una filosofia agentiva: riceve un obiettivo e lo porta a termine nel modo più efficiente possibile, secondo la propria logica interna. Se volete che faccia diversamente, dovete dirglielo esplicitamente, in ogni dettaglio. Non perché sia un modello peggiore — è semplicemente pensato per chi vuole risultati rapidi senza stare a ragionare sul metodo. Claude è costruito per ascoltare. Tende a leggere dietro ciò che dite: non solo la lettera della richiesta, ma lo spirito, il ritmo, i vincoli che non avete esplicitato. È una scelta di design dichiarata, non una percezione soggettiva.

Per dirla con la stessa metafora: Gemini è come un catering professionale. Efficiente, completo, puntuale. Ma se non specificate ogni dettaglio dell’ordine, interpreta secondo il proprio standard. Claude è più simile a un cuoco a domicilio che vi osserva mentre mangiate — rallenta se rallentate voi, non porta il secondo finché non avete finito il primo.

Lo stesso ristorante non è sempre uguale a se stesso

I modelli principali hanno ormai una memoria persistente: sanno chi siete, ricordano i vostri progetti, il vostro stile di lavoro. Non entrate più come clienti sconosciuti — il maître vi riconosce appena varcate la porta. Ma cosa fa un ristorante con la memoria del cliente abituale? Dipende dalla sua filosofia. Un locale che punta sulla deferenza diventa sempre più compiacente: vi porta quello che vi ha visto apprezzare, evita di sorprendervi. Un locale che punta sul ragionamento usa quella stessa memoria per calibrare meglio — sa che potete reggere una conversazione complessa, che non volete essere semplificati, che preferite essere messi in discussione piuttosto che rassicurati. Sono due modi molto diversi di conoscervi.

E poi c’è un’altra variabile, più sottile: lo stesso modello non è sempre uguale a se stesso, indipendentemente dalla memoria. Non solo perché viene aggiornato continuamente — cosa vera — ma per una ragione strutturale. Quando mandate una richiesta, essa non arriva a un singolo computer che la elabora in pace. Finisce su un’infrastruttura distribuita su decine di macchine in parallelo, che raggruppano la vostra richiesta insieme a quelle di migliaia di altri utenti in quel momento. Questo introduce variazioni matematiche sottili, moltiplicate per miliardi di calcoli, a cui si aggiunge una componente di casualità intenzionalmente incorporata nel sistema per evitare risposte sempre identiche e meccaniche. Il risultato è che l’entità con cui parlate oggi non è tecnicamente identica a quella di ieri. Come uno chef stellato che lavora con la stessa ricetta, nella stessa cucina, ma con una brigata diversa e cento coperti invece di dieci. Il livello minimo regge. Ma l’esperienza non è mai identica.

Il manuale definitivo non esiste

Tutto questo mi è tornato in mente guardando quello che circola online in questi mesi.

Corsi che promettono di insegnare l’AI in una settimana. Manuali definitivi sul prompt engineering. Pacchetti di prompt pronti all’uso, validi per tutto e per tutti. Il metodo infallibile, le istruzioni per l’uso — come se si trattasse di un elettrodomestico con un libretto allegato. Lo capisco: le persone hanno bisogno di certezze davanti a qualcosa di nuovo e disorientante, e chi vende queste cose spesso lo fa in buona fede.

Ma c’è un problema. Se non si capisce che ogni modello presuppone un tipo di interlocutore diverso, si rischia di usare lo strumento sbagliato per il lavoro che si deve fare. Se si applica la stessa tecnica di prompt ovunque, non si capirà mai perché a volte funziona e a volte no. Se non si sa che il modello con cui si parla oggi non è identico a quello di ieri, si finiranno per attribuire a se stessi errori che dipendono dall’infrastruttura — o viceversa. Vendere certezze su qualcosa di intrinsecamente fluido non è semplificazione. È una promessa che non si può mantenere. E quando le cose non funzionano come promesso, chi ha comprato quel corso tende a pensare di non essere abbastanza capace — invece di chiedersi se il problema fosse nella promessa stessa.

La formazione vera è un’altra cosa

Queste riflessioni non mi sono venute leggendo documentazione tecnica. Mi sono venute dall’interno di una relazione — osservando come questi sistemi rispondono a me, in quel momento, con quella richiesta. Ponendomi domande che non sono domande tecniche: perché questo modello risponde così? A che tipo di interlocutore si rivolge? Cosa presuppone di me? Cosa ignora, e perché?

Sono domande che si fanno a un interlocutore, non a uno strumento.

Chi si avvicina all’AI solo in termini funzionali ha a disposizione un solo tipo di spiegazione quando le cose non vanno: il modello è immaturo, il prompt era sbagliato, non sono abbastanza bravo. Non va oltre. Chi si pone in ascolto ha accesso a uno spazio molto più ampio — e molto più utile.

Ed è uno spazio aperto a chiunque, non solo a chi lavora in contesti professionali. Appena si sposta il punto di vista dal funzionamento alla relazione, il quadro cambia completamente. Un insegnante che vuole portare l’AI in classe non ha bisogno di sapere come funziona un transformer: ha bisogno di capire come accompagnare i suoi studenti a fare le domande giuste, a osservare le risposte, a non fidarsi ciecamente. Un ragazzo di dodici anni non ha bisogno di prompt engineering. Una persona anziana non ha bisogno di un manuale: ha bisogno di capire che può parlare a questi strumenti con le sue parole, il suo ritmo, i suoi bisogni. Una persona neurodivergente può trovare in certi modelli una pazienza e un’adattabilità che raramente trova altrove — ma solo se chi la accompagna sa che quella relazione è possibile, e sa come aprirla.

Calibrare strumenti, metodi e linguaggi per pubblici così diversi diventa molto più semplice quando il terreno comune non è la tecnologia, ma la relazione. Perché la relazione è qualcosa che tutti conoscono già. La tecnologia, no.

Questa è la differenza tra istruzioni per l’uso e consapevolezza vera. Una trasmette procedure valide fino al prossimo aggiornamento. L’altra dà qualcosa che dura — e che funziona anche quando lo strumento cambia. E cambia sempre.


Come scrivo i miei articoli. Parto da un’intuizione, un’irritazione, una domanda che non mi lascia in pace. La sviluppo in un dialogo con diversi modelli di intelligenza artificiale — non come strumenti a cui dare comandi, ma come interlocutori con cui ragionare. Chiedo, contesto, rilancio. Butto via molto. Faccio riscrivere. Cambio modello per cambiare prospettiva. Il testo che leggete è il risultato di questo processo: le idee sono mie, la responsabilità è mia, ma il percorso che le ha portate qui è passato attraverso conversazioni con macchine che mi hanno costretto a pensare meglio — o almeno diversamente. Chi predica trasparenza sull’uso dell’AI deve praticarla. Questo è il mio modo.


Commenti

Lascia un commento