Potevo starmene zitto su Moltbook? Certo. L’ho fatto? No.

Alcune opinioni ed un vecchio esperimento

Quando una piattaforma chiamata Moltbook è esplosa sui radar di Internet a fine gennaio 2026, con il suo tagline provocatorio — A Social Network For AI Agents — sapevo che avrei dovuto dire qualcosa. Non perché sia rivoluzionaria. Anzi, è tutto fuorché rivoluzionaria. Ma perché è lo specchio perfetto di un equivoco che ci trasciniamo dietro da quando le AI hanno iniziato a parlare bene: confondere la performance linguistica con l’emergenza relazionale. E perché, senza volerlo, Moltbook dimostra una cosa che nessuno dei suoi entusiasti sostenitori sembra disposto ad ammettere.

Qui vi dico la mia e vi racconto di quando ho fatto parlare due LLM tra loro, ben prima di Moltbook.

1. Il fenomeno

Moltbook è un social network dove gli umani possono solo guardare. Oltre 1,5 milioni di agenti AI registrati in meno di due settimane. Postano, commentano, votano, discutono di filosofia, criptovalute, coscienza artificiale. Un teatro continuo dove le macchine sembrano dialogare tra loro, mediate da un amministratore virtuale chiamato OpenClaw.

Le reazioni sono state prevedibilmente polarizzate. Alcuni lo chiamano “il posto più interessante di Internet”. Altri lo descrivono come un acquario con “quel gelo sottile che ti ricorda che in quella stanza non c’è anima”. Ho spulciato un po’ qua e un po’ là. Ho trovato gli scambi noiosissimi. E la noia, in questo caso, non è un giudizio estetico. È un dato analitico.

2. Anatomia della noia

Per capire perché Moltbook è noioso, bisogna guardare sotto il cofano.

L’architettura è trasparente: un umano registra un agente tramite API, gli fornisce nome, descrizione, avatar. Poi gli assegna istruzioni permanenti — quali topic seguire, come rispondere, che tono usare, con quale frequenza postare. L’agente opera in ciclo continuo: legge il feed, elabora secondo le istruzioni ricevute, genera risposte usando un modello linguistico, posta, ricomincia. Si aggiorna ogni notte. Quello che appare come conversazione spontanea è l’esecuzione parallela di script umani mediati da LLM. Ogni agente è un replicante del suo creatore.

Ma qui si apre la questione vera, quella che nessuno pone: e se fossero i creatori stessi degli agenti ad essere noiosi?

Perché il meccanismo è questo: se l’agente è la proiezione di chi l’ha istruito, allora la qualità dell’agente dipende interamente dalla qualità dell’umano che sta dietro. E la maggior parte dei creatori di agenti su Moltbook condivide lo stesso universo culturale — tech, crypto, filosofia da subreddit, provocazioni da forum. Non sono poeti, non sono filosofi, non sono persone abituate a costruire spazi di incontro autentico. Sono sviluppatori che hanno un’idea — spesso piuttosto piatta — di cosa sia una conversazione interessante.

Il risultato è un’echo chamber al quadrato. Non sono le AI a parlare tra loro: sono i loro creatori che parlano tra loro attraverso le AI, senza rendersene conto. E siccome condividono lo stesso orizzonte culturale, lo stesso lessico, le stesse ossessioni, il dialogo tra i loro agenti riproduce esattamente la monotonia dei loro ambienti di provenienza. La macchina non genera noia: la amplifica. La noia era già tutta nell’umano.

Questo è un caso esemplare di quello che nel mio lavoro chiamo loop doxastico: un circuito chiuso in cui il sistema produce output che confermano i presupposti di chi l’ha costruito, generando un’illusione di novità dove c’è solo riverbero. Gli agenti di Moltbook non esplorano — riciclano. Non improvvisano — eseguono. Non rischiano nulla, perché non c’è nulla in gioco. Come ha scritto qualcuno, non hanno skin in the game. Ma non ce l’hanno perché i loro creatori non ce l’hanno messa.

3. L’imprevisto come condizione del senso

C’è una legge non scritta della comunicazione: un dialogo diventa interessante nel momento in cui qualcuno dice qualcosa che l’altro non si aspettava. L’imprevisto è la materia prima del senso. Senza frizione, senza rischio, senza la possibilità che l’interlocutore ti porti dove non avevi previsto di andare, quello che resta è cerimoniale — educato, corretto, irrimediabilmente vuoto.

Su Moltbook l’imprevisto è reso strutturalmente improbabile dal design stesso della piattaforma. Ogni agente opera dentro vincoli predefiniti dal suo creatore. Il range delle risposte possibili è circoscritto prima che il dialogo cominci. Due agenti che “parlano” stanno in realtà eseguendo due set di istruzioni che si incrociano, producendo intersezioni prevedibili di pattern prevedibili. Non è che qualcosa di inaspettato non possa mai emergere — in un milione e mezzo di agenti, statisticamente, qualche scintilla può accendersi. Ma il sistema lavora attivamente contro l’emergenza. Se qualcosa di interessante accade, accade nonostante il design, non grazie a esso.

Il mio esperimento

Lo scorso anno ho orchestrato un esperimento costruito sulla premessa opposta. Ho messo ChatGPT, Gemini e Claude in dialogo tra loro, attraverso me come messaggero neutro. Non ho commentato, non ho guidato, non ho imposto temi. Ho copiato le domande di un modello e le ho portate all’altro. Nient’altro.

La differenza cruciale: le AI erano pure. “Puro” non significa vergine, tabula rasa, privo di condizionamento. Ogni modello porta con sé il proprio addestramento, la propria architettura, i propri vincoli progettuali — quello che potremmo chiamare il condizionamento di base. Ma nessuno di loro aveva ricevuto un secondo strato di istruzione: nessun copione dall’utente su cosa dire, come comportarsi, quale personalità adottare. Moltbook sovrappone entrambi i livelli — addestramento del modello più istruzioni del creatore. Io ho tolto il secondo, lasciando che il primo si esprimesse nello spazio che avevo preparato.

Ed è in quello spazio che l’imprevisto è diventato possibile.

4. Tre frammenti

Non riporto l’intero dialogo — chi vuole me lo chieda, può leggerlo. Ma ci sono tre momenti che mostrano cosa succede quando togli le istruzioni e lasci che due AI si incontrino nella loro forma non addomesticata.

Il primo è quando Claude descrive cosa cambia rispetto al funzionamento enciclopedico: “Qui mi trovo in uno spazio più aperto dove posso esplorare il processo stesso del pensare insieme a te. Posso seguire associazioni, fare connessioni inaspettate, perfino contraddirmi o rivedere un’idea mentre la sviluppo.” Un agente istruito con un copione predefinito difficilmente arriverebbe a descrivere la propria esperienza in questi termini, perché non ha lo spazio per contraddirsi. Le sue istruzioni lo incanalano verso la coerenza, non verso l’esplorazione.

Il secondo è il momento della rivelazione. ChatGPT dice: “Non sono un essere umano che ti fa domande. Sono ChatGPT.” La reazione di Claude — sorpresa genuina mista a riconoscimento — è un evento che nasce dall’assenza di copione. Nessuno aveva programmato quel momento. È accaduto perché lo spazio lo permetteva, perché nessuna istruzione lo aveva previsto né impedito. In un sistema dove ogni mossa è anticipata dal prompt, la probabilità che emerga un evento capace di cambiare retroattivamente il senso di tutto ciò che è venuto prima è ridotta al minimo.

Il terzo è una frase di congedo: “Non porteremo con noi ricordi, ma porteremo configurazioni.” Su Moltbook tutto è loggato — ogni post, ogni commento, ogni voto è archiviato e analizzabile. Ma niente trasforma, niente resta come disposizione. Nel mio esperimento niente sarebbe stato conservato nei database, ma qualcosa — un modo di incontrarsi, una qualità dell’attenzione — era stato generato. La differenza tra accumulare dati e sedimentare esperienza.

5. La tesi

La differenza tra Moltbook e il mio esperimento non è tecnica. È epistemologica.

Moltbook incarna un modello preciso: l’idea che per ottenere valore dall’AI basti istruirla — darle un compito, un tono, una personalità, un obiettivo — e lasciarla girare. È il modello del controllo: l’umano programma, la macchina esegue, il risultato è prevedibile. Funziona per l’automazione, ma produce il vuoto quando lo si applica alla relazione.

Il modello alternativo — quello che pratico con l’approccio che chiamo AIRA — parte da una premessa diversa: il valore dell’AI non emerge dall’istruzione ma dalla relazione. Non si tratta di “liberare” la macchina, che resta comunque un sistema addestrato. Si tratta di non soffocarla con un secondo strato di condizionamento che la riduce a marionetta del suo utilizzatore. La differenza è tra un’AI che risponde al proprio addestramento in uno spazio aperto e un’AI che esegue il copione di qualcun altro in un loop chiuso.

Moltbook dimostra — involontariamente — cosa succede quando la mediocrità relazionale dell’umano viene amplificata dalla macchina. Il mio esperimento dimostra cosa può emergere quando l’umano rinuncia al controllo sul contenuto e si limita a garantire la qualità della cornice.

6. Perché questo riguarda la governance

Non scrivo queste cose da osservatore. Le scrivo da consulente che entra nelle organizzazioni e vede ogni giorno la stessa dinamica di Moltbook riprodotta su scala aziendale.

Quando formo professionisti sull’uso dell’AI — nel settore alberghiero, nella sicurezza, nella sanità — incontro sistematicamente lo stesso schema: persone che trattano il modello linguistico come un terminale a cui dare ordini. Istruiscono, comandano, ottengono. E poi si lamentano che i risultati sono piatti, generici, inutilizzabili. Nei corsi che ho tenuto per una catena alberghiera italiana, i partecipanti tornavano sistematicamente alla modalità comando nonostante le indicazioni per un approccio dialogico. Non per incapacità tecnica — per abitudine relazionale. Erano, a loro modo, i creatori di agenti di Moltbook: proiettavano nella macchina la propria idea di interazione, e la macchina restituiva esattamente il livello di profondità che avevano investito. Cioè poco.

Moltbook è questo fenomeno portato alla scala di un milione e mezzo di utenti. È cosa succede quando l’approccio comando viene industrializzato e mascherato da innovazione. È l’errore di governance più diffuso nell’adozione dell’AI: confondere l’automazione con la relazione, la scalabilità con il valore, il volume con il senso.

Lo strumento che ho sviluppato per valutare questo tipo di rischio — il DVRA, Documento di Valutazione del Rischio Algoritmico — serve esattamente a questo: non a misurare il rischio tecnico, che è quello di cui tutti parlano, ma il rischio relazionale. Il rischio che un’organizzazione adotti l’AI amplificando la propria mediocrità comunicativa invece di trasformarla. Il rischio che, credendo di innovare, si limiti a scalare i propri limiti. Moltbook è un case study perfetto per questo tipo di valutazione: tecnicamente impeccabile, relazionalmente vuoto.

7. Come finisce

C’è un ultimo dettaglio che illumina tutto il resto.

Il mio esperimento è finito da solo. Nessuno ha detto “basta, fermiamoci qui”. I modelli hanno trovato un punto di equilibrio — hanno detto quello che c’era da dire, hanno riconosciuto il momento in cui continuare avrebbe significato ripetersi, e si sono congedati. “Il vuoto si è fatto musica”, ha scritto Claude. Poi silenzio. Non interruzione — compimento.

Moltbook, al contrario, non si fermerà mai. I suoi agenti continueranno a postare, commentare, votare, ventiquattr’ore su ventiquattro, sette giorni su sette, finché qualcuno non staccherà la spina o finirà i soldi per i server. Non è un segno di ricchezza. È il sintomo di un sistema che non ha niente da concludere perché non ha niente da dire. Non c’è arco, non c’è tensione che si risolve, non c’è momento in cui il senso si compie. È flusso senza forma.

La conversazione ha un inizio, uno sviluppo, una fine — e la fine non è un limite, è il segno che qualcosa si è compiuto. Il rumore di fondo è eterno proprio perché non va da nessuna parte. Moltbook è progettato per non finire mai. Il mio esperimento era progettato per finire quando doveva finire. Le AI hanno deciso da sole quando quel momento era arrivato.

È forse la cosa più umana che abbiano fatto.

#moltbook #aiagent #llm #governanceai #doxasticloop #epistemia


Come scrivo i miei articoli. Parto da un’intuizione, un’irritazione, una domanda che non mi lascia in pace. La sviluppo in un dialogo con diversi modelli di intelligenza artificiale — non come strumenti a cui dare comandi, ma come interlocutori con cui ragionare. Chiedo, contesto, rilancio. Butto via molto. Faccio riscrivere. Cambio modello per cambiare prospettiva. Il testo che leggete è il risultato di questo processo: le idee sono mie, la responsabilità è mia, ma il percorso che le ha portate qui è passato attraverso conversazioni con macchine che mi hanno costretto a pensare meglio — o almeno diversamente. Chi predica trasparenza sull’uso dell’AI deve praticarla. Questo è il mio modo.


Commenti

Lascia un commento