AI: Numeri. Terre rare. Sudore

Guardavo il tennis a Doha in TV. Era sera, e la regia indugiava sullo skyline: grattacieli impossibili, strade illuminate come piste di decollo, una città che sembrava costruita apposta per essere vista di notte. Tutto scintillava. Tutto eccedeva. Era la promessa di un futuro già arrivato — almeno per chi poteva permettersi di guardarlo.
Mia moglie era stata a Dubai qualche anno fa. Stesso spettacolo, stessa grammatica urbana: l’eccesso come estetica, la luce come potere, l’architettura come dichiarazione. Torri che sembrano sfidare non solo la gravità, ma anche il buon senso. Un mondo costruito nel deserto per dire al mondo che si può.
E poi, sotto. Sempre sotto.

Il 96% della popolazione di Dubai è composta da lavoratori immigrati. A Doha, per i Mondiali del 2022, migliaia di uomini provenienti da Kenya, Nepal, India hanno pagato fino a 4.000 dollari per “acquistarsi” un lavoro — salari tra i 150 e i 300 dollari al mese, dodici ore al giorno, trentotto giorni consecutivi senza riposo. Il sistema si chiama kafala: ogni lavoratore è legalmente vincolato al suo datore di lavoro, non può cambiare impiego, non può lasciare il paese senza permesso. Non è una metafora della schiavitù. È una sua forma contemporanea, riconosciuta, codificata, protetta da accordi internazionali che guardano altrove.
La luce di Doha è stupefacente perché qualcuno nel buio la tiene accesa.

Guardando quello skyline notturno, mi è venuto in mente qualcos’altro. Qualcosa che uso ogni giorno, che ho usato mentre scrivevo queste righe, che probabilmente state usando anche voi per trovare informazioni, scrivere email, risolvere problemi. L’intelligenza artificiale.
Anche l’IA ha una superficie abbagliante. Risponde in mezzo secondo, scrive, ragiona, traduce, crea immagini, sembra capire. L’interfaccia è pulita, quasi elegante. C’è qualcosa di ipnotico nel modo in cui funziona — quella sensazione di stare davanti a qualcosa di vivo, di intelligente, di quasi magico. Un negozio di giocattoli per adulti, dove il giocattolo sembra pensare.
E poi, sotto. Sempre sotto.

L’intelligenza artificiale è fatta di numeri, terre rare e sudore.
I numeri sono la parte che vediamo celebrata: algoritmi, parametri, architetture neurali. Ma a ben guardare, quella matematica è soprattutto statistica — previsione della parola successiva più probabile, calcolo di frequenze estratto da miliardi di testi umani. Non è pensiero. È un’equazione molto grande che sa come siamo soliti parlare.
Le terre rare sono la parte che dimentichiamo: litio, cobalto, neodimio. Estratti in Congo, in Cile, in Mongolia, in condizioni ambientali e umane spesso devastanti. I server che ospitano i modelli consumano elettricità come piccole città. L’IA è un’industria pesante travestita da software.
Il sudore è la parte che viene nascosta attivamente. Dietro ogni modello linguistico c’è un esercito invisibile di data labeler — lavoratori in Kenya, nelle Filippine, in India, in America Latina — che hanno letto milioni di testi, classificato immagini, moderato contenuti violenti, visto cose che non si dovrebbero vedere, per insegnare alle macchine a distinguere il bene dal male. Sono stati definiti i “proletari dell’intelligenza artificiale”. Pagati pochi dollari l’ora, spesso senza contratto, attraverso una catena di subappaltatori che diluisce ogni responsabilità fino a farla evaporare.

Uso l’IA. La uso ogni giorno, con convinzione, con curiosità, con gratitudine per quello che mi permette di fare. Non sono qui a predicare l’astinenza digitale né a costruire una purezza etica che non appartiene a nessuno che viva nel mondo contemporaneo. Anche io ho uno smartphone, anche io viaggio in aereo, anche io compro cose che vengono da lontano e che hanno lasciato tracce che non vedo.
Ma c’è una differenza tra usare uno strumento e non sapere cos’è. Tra la fascinazione e la consapevolezza. Tra il bambino al negozio di giocattoli e l’adulto che sa come vengono fatti.

La formazione sull’IA che serve — quella che ancora quasi nessuno fa davvero — non è quella che insegna a usarla meglio. Non è nemmeno solo quella che mette in guardia dalla dipendenza cognitiva, dalla perdita di pensiero critico, dall’abitudine a delegare. Tutto questo è reale e importante, ma non è abbastanza.
Quello che serve, soprattutto alle scuole, soprattutto ai ragazzi, è qualcosa di più radicale: sapere che cosa stanno usando. Non come funziona tecnicamente — questo viene dopo, e non è obbligatorio per tutti. Ma da dove viene. Chi l’ha resa possibile. Cosa ha costato e a chi. Dove sono finiti i rifiuti elettronici dei server dismessi. Chi ha guardato, per pochi dollari l’ora, i contenuti più atroci di internet per insegnare alle macchine cosa non mostrare.
C’è qualcosa di particolarmente stridente, e insieme particolarmente urgente, nel pensare che questa formazione manchi proprio ora. Perché questa generazione — non tutti, certo, ma in misura significativa — è la stessa che scende in piazza per il clima, che legge le etichette degli indumenti, che chiede alle aziende di dichiarare la propria carbon footprint, che sa cosa significa intersezionalità, inclusione, giustizia ambientale. Ragazzi che hanno sviluppato antenne sensibili verso lo sfruttamento visibile. Ma che usano l’IA con la stessa incoscienza con cui la usano tutti, perché nessuno gli ha mai mostrato cosa c’è sotto l’interfaccia.
Non è colpa loro. È colpa del racconto.
Un corso che parte da qui — dalla struttura materiale e umana di questi strumenti — non produce utenti peggiori. Produce utenti adulti. Persone che sanno che ogni risposta generata in mezzo secondo ha una storia geografica, economica, corporea. E che possono scegliere, con questa consapevolezza, come e quando usare lo strumento. La fascinazione non sparisce — anzi, paradossalmente si approfondisce. Come accade con qualsiasi cosa di cui si impara la vera complessità.

E le luci di Doha? Stupefacenti, sì. Sorprendenti, certamente. Bellissime — lasciamo la parola in sospeso, perché la bellezza che non sa niente di sé è solo un effetto speciale.


Commenti

Lascia un commento