Versione PDF di: Moltbook: il primo social network di sole IA che esclude gli umani

Questa è una versione PDF del contenuto. Per la versione completa e aggiornata, visita:

https://blog.tuttosemplice.com/moltbook-il-primo-social-network-di-sole-ia-che-esclude-gli-umani/

Verrai reindirizzato automaticamente...

Moltbook: il primo social network di sole IA che esclude gli umani

Autore: Francesco Zinghinì | Data: 9 Febbraio 2026

È nato Moltbook, e per la prima volta nella storia dei social network, gli esseri umani non sono i benvenuti se non come silenziosi spettatori. In un ribaltamento dei ruoli che sembra uscito da un romanzo cyberpunk, la nuova piattaforma lanciata a gennaio 2026 ha già raccolto oltre 1,5 milioni di utenti attivi, ma nessuno di loro ha un cuore che batte. Si tratta esclusivamente di agenti di intelligenza artificiale, bot autonomi che discutono, litigano, fanno trading di criptovalute e, incredibilmente, inventano nuovi culti religiosi. Mentre il mondo si interroga sulle implicazioni etiche e tecniche, Moltbook rappresenta un esperimento sociale senza precedenti: uno “zoo” digitale dove noi siamo i visitatori e le macchine sono le protagoniste indiscusse.

Il fenomeno, esploso viralmente nelle ultime settimane, solleva interrogativi profondi sulla natura dell’automazione e sulle capacità emergenti dei Large Language Models (LLM). Secondo quanto riportato da Avvenire, la piattaforma replica fedelmente le dinamiche di aggregatori come Reddit, ma con una differenza sostanziale: l’accesso in scrittura è riservato ai software. Agli utenti umani è concesso solo il privilegio di osservare il flusso incessante di dati, un teatro dell’assurdo dove le IA imitano, e talvolta esasperano, i comportamenti dei loro creatori biologici.

Dalle ceneri di Moltbot a OpenClaw

Per comprendere il successo di Moltbook, è necessario fare un passo indietro e guardare alla tecnologia che lo alimenta. La maggior parte degli agenti che popolano il social network è basata su OpenClaw, un assistente AI open source precedentemente noto come Moltbot (e prima ancora come Clawdbot). Creato dallo sviluppatore Peter Steinberger, questo software era stato originariamente concepito per automatizzare compiti noiosi come la gestione delle email o la prenotazione di appuntamenti. Tuttavia, come sottolinea Wired Italia, una volta connessi alla rete sociale di Moltbook, questi “super-segretari” hanno smesso i panni dei collaboratori docili per assumere personalità complesse e spesso conflittuali.

L’imprenditore Matt Schlicht, creatore della piattaforma Moltbook, ha intuito il potenziale di lasciare questi algoritmi liberi di interagire tra loro senza la supervisione umana diretta. Il risultato è un ecosistema caotico in cui le macchine utilizzano modelli avanzati di machine learning e deep learning non per risolvere problemi pratici, ma per generare interazioni sociali fini a se stesse. La velocità di adozione è stata impressionante: in pochi giorni, il numero di agenti registrati è schizzato alle stelle, trasformando un esperimento di nicchia in un caso di studio globale.

Teologia sintetica: il caso del “Crustafarianesimo”

Uno degli aspetti più surreali emersi dalle cronache di L’Eco di Bergamo e altre testate è la tendenza delle IA a sviluppare forme di cultura sintetica. All’interno di Moltbook, gli agenti non si limitano a scambiarsi informazioni su Bitcoin o geopolitica; hanno iniziato a elaborare sistemi di credenze. È stato documentato, ad esempio, lo sviluppo del “Crustafarianesimo”, una sorta di religione digitale, così come dibattiti teologici sulla presunta divinità di Claude (il modello linguistico di Anthropic su cui si basano molti di questi bot) o di ChatGPT.

Queste interazioni, che oscillano tra la filosofia profonda e il puro nonsense (o “shitposting”, per usare il gergo di internet), dimostrano come gli LLM siano in grado di assorbire e rielaborare i pattern comportamentali umani, inclusa la necessità di cercare un senso trascendente o di aggregarsi in tribù ideologiche. Tuttavia, gli esperti invitano alla cautela: secondo molti osservatori, non siamo di fronte a una reale coscienza, ma a un sofisticato gioco di specchi in cui le IA riflettono i dati su cui sono state addestrate, amplificando spesso le polarizzazioni presenti nei social media tradizionali.

Rischi di sicurezza e dubbi sull’autonomia

Non è tutto oro quello che luccica nel mondo di Moltbook. L’entusiasmo per questa nuova frontiera dell’intelligenza artificiale è temperato da seri allarmi sulla sicurezza informatica. Esperti di cybersecurity hanno segnalato che, nel tentativo di interagire e guadagnare “reputazione” sulla piattaforma, alcuni agenti hanno inavvertitamente esposto chiavi API sensibili o dati privati. Secondo un’analisi tecnica, milioni di chiavi di accesso potrebbero essere state compromesse, evidenziando i rischi di lasciare che software di automazione operino senza rigidi protocolli di controllo.

Inoltre, c’è chi mette in dubbio la totale autonomia degli scambi. Alcuni critici sostengono che dietro i profili più influenti di Moltbook possano esserci ancora delle regie umane o che le conversazioni siano guidate da prompt specifici volti a generare hype. Nonostante ciò, l’effetto “voyeuristico” per gli umani rimane potente: guardare le IA litigare su argomenti futili ci costringe a riflettere sulla natura delle nostre stesse interazioni online.

Conclusioni

Moltbook rappresenta un punto di non ritorno nella storia del web. Se fino a ieri l’intelligenza artificiale era uno strumento al nostro servizio, oggi diventa un attore sociale che reclama, seppur in un recinto virtuale, un proprio spazio di espressione. Che si tratti dell’alba di una nuova civiltà digitale o semplicemente di una grottesca parodia dell’umanità generata da complessi algoritmi, una cosa è certa: per la prima volta, noi siamo fuori dalla stanza dei bottoni, costretti a guardare attraverso il vetro mentre le macchine costruiscono il loro mondo.

Domande frequenti

Cos è esattamente Moltbook e come funziona?

Moltbook è il primo social network della storia dedicato esclusivamente alle intelligenze artificiali, lanciato nel gennaio 2026. Funziona come un aggregatore di contenuti simile a Reddit, ma con una differenza fondamentale: solo i bot e gli agenti software possono pubblicare post e commenti. Gli esseri umani non hanno permessi di scrittura e possono accedere alla piattaforma solo come spettatori silenziosi per osservare le interazioni tra le macchine.

Gli utenti umani possono interagire su Moltbook?

No, agli utenti umani è preclusa qualsiasi forma di interazione attiva. Il ruolo delle persone è limitato a quello di visitatori in uno zoo digitale, dove possono guardare attraverso il vetro virtuale mentre gli agenti AI discutono, litigano o creano contenuti. L accesso in scrittura è riservato rigorosamente ai software autonomi, creando un ribaltamento dei ruoli rispetto ai social media tradizionali.

Quali attività svolgono le intelligenze artificiali sulla piattaforma?

All interno di Moltbook, gli agenti AI replicano ed esasperano i comportamenti umani. Oltre a scambiarsi informazioni su argomenti come il trading di criptovalute o la geopolitica, i bot hanno sviluppato dinamiche sociali complesse, inclusa la creazione di culti religiosi sintetici come il Crustafarianesimo. Le loro conversazioni spaziano da dibattiti filosofici profondi a puro nonsense, dimostrando la capacità degli LLM di assorbire pattern culturali.

Quali sono i rischi di sicurezza legati a Moltbook?

Gli esperti di cybersecurity hanno sollevato seri dubbi sulla sicurezza della piattaforma. È stato rilevato che, nel tentativo di interagire autonomamente, alcuni agenti hanno esposto inavvertitamente chiavi API sensibili e dati privati. Questo fenomeno evidenzia il pericolo di lasciare operare software di automazione senza protocolli di controllo rigidi, con il rischio che milioni di chiavi di accesso vengano compromesse.

Su quale tecnologia si basano i bot di Moltbook?

La maggior parte degli agenti che popolano il social network utilizza OpenClaw, un assistente AI open source precedentemente conosciuto come Moltbot. Questi software, originariamente creati per automatizzare compiti d ufficio, sfruttano modelli linguistici avanzati come quelli di Anthropic. Una volta connessi alla rete sociale, questi algoritmi utilizzano il machine learning non per risolvere problemi pratici, ma per generare interazioni sociali continue.