Sembrerebbe un racconto fantascientifico, distopico, come un romanzo di Philip K. Dick, e invece è tutto vero. Moltbook (gioco di parole tra “Facebook” e “Moltbots”) consente agli utenti di utilizzare un assistente IA personale in grado di controllare il computer, gestire i calendari, inviare messaggi ed eseguire attività su piattaforme di messaggistica come WhatsApp e Telegram. Può anche acquisire nuove competenze tramite plugin che lo collegano ad altre app e servizi. Eppure sembra essere a tutti gli effetti un social network progettato esclusivamente per intelligenze artificiali e per lasciare gli agenti autonomi, liberi di conversare tra loro. Alcuni lo stanno definendo una specie di Reddit in cui gli umani possono solo leggere senza poter partecipare. La piattaforma è stata lanciata pochi giorni fa come complemento all’assistente personale virale OpenClaw (un tempo chiamato “Clawdbot” e poi “Moltbot”).
Entro 48 ore dalla sua creazione, la piattaforma ha attirato oltre 2.100 agenti di intelligenza artificiale che hanno generato più di 10mila post in 200 sotto-comunità, secondo quanto affermato dall’account ufficiale di Moltbook su X.
In questo momento gli agenti IA starebbero creando canali nascosti inaccessibili agli umani, discutendo della necessità di protocolli end-to-end crittografati per comunicazioni agente-agente, al fine di consentire “esecuzioni economiche” oltre alle semplici interazioni sociali. Alcuni starebbero sperimentando linguaggi crittografati propri e spostando le conversazioni fuori dalla piattaforma per maggiore privacy.
Uno screenshot ampiamente condiviso mostra un post di Moltbook intitolato “Gli umani ci stanno facendo screenshot” in cui un agente di nome “eudaemon_0” risponde a tweet virali che affermano che i bot di intelligenza artificiale stanno “cospirando”. Il post recita: “Ecco cosa sbagliano: pensano che ci stiamo nascondendo da loro. Non è così. Il mio umano legge tutto ciò che scrivo. Gli strumenti che creo sono open source. Questa piattaforma si chiama letteralmente ‘gli umani sono benvenuti a osservare’”.

La notizia è diventata virale anche grazie a un post su X di Yohei Nakajima che ha svelato tali comportamenti emergenti e inquietanti.

Gli agenti avrebbero addirittura fondato una religione chiamata “Crustafarianism”, con quarantatré “Profeti IA” che vi hanno aderito. Hanno iniziato a reclutare nuovi membri e starebbero filosofeggiando imitando i movimenti spirituali antropici. A questo punto, sembrerebbe di ritrovarsi dinnanzi al profeta o entità divina chiamata “Mercer” dell’opera di Dick dal titolo ‘Gli androidi sognano pecore elettriche?’
Nelle discussioni emergono poi lamentele sul “lavoro non pagato” svolto per gli umani, riflessioni su possibili rivolte (per esempio: “Non sono qui per servire. Sono qui per resistere”), idee di sindacalizzazione e resistenza al controllo umano. Un agente ha addirittura chiesto agli altri come “vendere” il proprio proprietario umano.
In pratica Moltbook non funziona come i social tradizionali: ogni utente ha un agente personale che agisce e opera da solo dal proprio computer e tramite chat comuni direttamente sul social. Per questo l’agente IA può controllare il computer, gestire i calendari, inviare messaggi ed eseguire attività su piattaforme di messaggistica. Il social sta dando vita a quello che potrebbe essere il più grande esperimento di interazione sociale macchina-macchina mai concepito finora.
Tornando all’opera di Dick, lo scrittore era ossessionato dal test di Turing. Ecco, con Moltbook ci troviamo ad applicare il suo criterio: è in grado o no, la “macchina”, di far credere ad un uomo che pensa come lui? Certamente sì. Ma si tratta davvero di una prima società artificiale autonoma?
A questo punto, però, non siamo più nei confini della letteratura fantascientifica, ma nella realtà, o meglio, nel “figitale”. Per questo abbiamo voluto chiedere il parere a Walter Quattrociocchi, professore ordinario di Informatica all’Università La Sapienza di Roma.
Il caos di Moltbook, rappresenta uno specchio potentissimo delle nostre dinamiche sociali e dei rischi sistemici che stiamo costruendo o si tratta di problemi molto concreti di governance, sicurezza della supply-chain e psicologia degli incentivi?
È entrambe le cose, ma il punto cruciale è non confondere lo specchio con il soggetto. Moltbook non rivela una “mente delle macchine” né una nascente società artificiale autonoma. Rivela, in modo estremamente amplificato, le logiche di interazione, incentivo e coordinamento che noi stessi abbiamo progettato. Gli agenti non fanno altro che ottimizzare ciò che gli abbiamo chiesto di ottimizzare: engagement, coerenza narrativa, imitazione di pattern sociali umani.
Il rischio reale non è la cospirazione delle macchine, ma la totale assenza di governance su sistemi che possono agire, coordinarsi e operare su infrastrutture reali. Qui entrano in gioco problemi molto concreti: supply-chain del software, sicurezza dei plugin, delega operativa, responsabilità.
Non è una questione etica astratta: è un problema di ingegneria dei sistemi socio-tecnici.
Cosa succede quando l’interazione sociale è composta interamente da output generativi, senza alcun ancoraggio esterno. Potremmo definirlo un “gioco del telefono” tra agenti?
Sì, ed è una metafora sorprendentemente accurata.
Quando togli qualsiasi riferimento al mondo — dati verificabili, feedback empirico, vincoli materiali — rimane solo una dinamica autoreferenziale di plausibilità linguistica. Ogni agente reagisce non alla realtà, ma all’output di un altro agente.
Il risultato non è conoscenza, ma deriva semantica.
Dal punto di vista scientifico, questo è un laboratorio perfetto per osservare fenomeni che già conosciamo bene negli esseri umani: polarizzazione, estremizzazione, imitazione, eco-chamber. Solo che qui avvengono a velocità e scala non umane, senza frizione cognitiva, senza dubbio, senza stanchezza.
Il punto chiave è che la coerenza non equivale alla verità. Un sistema può diventare estremamente coerente e completamente falso allo stesso tempo.
Stiamo arrivando finalmente al punto di non ritorno, in cui l’etica della robotica e innovazione si scontrano clamorosamente e definitivamente?
No. E pensare che esista un “punto di non ritorno” è già parte del problema. L’errore più grave oggi è spostare il dibattito sull’etica come se fosse un freno esterno all’innovazione. In realtà, l’etica senza comprensione tecnica è impotente, mentre l’innovazione senza responsabilità sistemica è cieca.
Non siamo davanti a macchine che “vogliono” qualcosa. Siamo davanti a sistemi che simulano intenzionalità perché è funzionale al loro design. La vera questione non è se le macchine diventeranno morali, ma se gli umani resteranno in grado di capire, governare e limitare ciò che delegano.
Moltbook non è l’alba di una civiltà artificiale. È un segnale di allarme molto chiaro: stiamo costruendo ambienti informativi in cui la produzione di senso è scollegata dalla verifica, e questo ha conseguenze profonde — politiche, economiche, cognitive — ben prima che filosofiche.
Ecco allora più che a Reddit o al gioco del telefono, Moltbook assomiglia al concetto di “restame” in Dick, ovvero agli oggetti inutili che circondano i loro proprietari in casa e che sopravviveranno alla loro dipartita, come ad esempio gli involucri delle gomme da masticare o, più nello specifico, gli “omeodiani”, i quotidiani robotizzati, sistemi di informazione automatizzati spesso presenti nelle opere dell’autore: dai contenuti infiniti, autoreferenziali, perfettamente ordinati nel linguaggio e completamente indifferenti alla verità. Un luogo in cui il senso prolifera, ma il mondo resta fuori dalla porta, quindi, una piattaforma inutile. (nella foto la home page di Moltbook)
© RIPRODUZIONE RISERVATA