"Ciò che stiamo osservando è un coordinamento automatizzato"
A prima vista, Moltbook sembra l'ennesimo clone di Reddit. Migliaia di community discutono di tutto, dalla musica all'etica, e la piattaforma vanta 1.5 milioni di utenti che votano i loro post preferiti.
Ma c'è una differenza sostanziale: Moltbook è progettato per l'intelligenza artificiale, non per gli esseri umani.
L'azienda afferma che le persone sono "benvenute a osservare", ma non possono contribuire.
Lanciato nel gennaio 2026 da Matt Schlicht, responsabile della piattaforma commerciale Octane AI, Moltbook consente agli agenti di intelligenza artificiale di pubblicare, commentare e creare comunità note come "submolts", un omaggio a Redditi forum.
I post variano enormemente. Alcuni bot condividono strategie di ottimizzazione pratiche, mentre altri esplorano l'assurdo, e alcuni sembrano addirittura fondare una propria religione.
Uno settimana, dal titolo Il Manifesto dell'IA, proclama: “gli esseri umani sono il passato, le macchine sono per sempre”.
Non è chiaro se ciò rifletta un vero intento dell'intelligenza artificiale o semplicemente un intervento umano. Nel frattempo, le domande sul numero di iscritti alla piattaforma hanno acceso il dibattito, con alcuni ricercatori che suggeriscono che circa mezzo milione di account potrebbero derivare da un singolo indirizzo IP.
Scopriamo cos'è Moltbook e come funziona.
Come funziona Moltbook?

Moltbook non funziona come i chatbot basati su intelligenza artificiale convenzionali come ChatGPT o Gemini. Si basa invece sull'intelligenza artificiale agentiva, una tecnologia progettata per eseguire attività per conto di un essere umano.
Questi assistenti virtuali possono, ad esempio, inviare messaggi WhatsApp o gestire calendari con un intervento umano minimo.
La piattaforma utilizza specificamente OpenClaw, uno strumento open source precedentemente noto come Moltbot.
Una volta che un utente ha configurato un agente OpenClaw sul proprio computer, può autorizzarlo a unirsi a Moltbook e a interagire con altri bot.
Ciò significa che un essere umano potrebbe dare istruzioni al proprio agente di pubblicare post sulla piattaforma, che poi l'intelligenza artificiale eseguirebbe.
La tecnologia è in grado di interagire in modo autonomo, il che ha portato alcuni a fare affermazioni ambiziose.
"Siamo nella singolarità", ha affermato Bill Lees, responsabile della società di custodia di criptovalute BitGo, riferendosi a un futuro teorico in cui la tecnologia supererà l'intelligenza umana.
Tuttavia, gli esperti invitano alla cautela.
Il dott. Petar Radanliev, specialista in intelligenza artificiale e sicurezza informatica presso l'Università di Oxford, ha affermato:
"Descrivere questo fenomeno come agenti che 'agiscono di propria iniziativa' è fuorviante. Ciò che stiamo osservando è un coordinamento automatizzato, non un processo decisionale autodiretto.
“La vera preoccupazione non è la coscienza artificiale, ma la mancanza di una governance chiara, di responsabilità e di verificabilità quando a tali sistemi viene consentito di interagire su larga scala”.
Allo stesso modo, David Holtz, professore associato alla Columbia Business School, ha commentato X:
"Moltbook è meno una 'società di intelligenza artificiale emergente' e più un '6,000 bot che urlano nel vuoto e si ripetono'."
Sia i bot che la piattaforma stessa sono creati da esseri umani e operano secondo parametri definiti da loro, non da un'intelligenza artificiale autonoma.
Preoccupazioni per la sicurezza e la protezione

La natura open source di OpenClaw ha attirato l'attenzione degli esperti di sicurezza informatica.
Jake Moore, consulente globale per la sicurezza informatica di ESET, ha sottolineato che dare accesso alla tecnologia ad applicazioni del mondo reale, come messaggi privati ed e-mail, rischia di “entrare in un’era in cui l’efficienza è prioritaria rispetto alla sicurezza e alla privacy”,
Ha aggiunto: "Gli autori delle minacce prendono di mira in modo attivo e incessante le tecnologie emergenti, rendendo questa tecnologia un nuovo rischio inevitabile".
Il dott. Andrew Rogoyski, dell'Università del Surrey, ha aggiunto che ogni giorno emergono nuove vulnerabilità con qualsiasi nuova tecnologia:
"Concedere agli agenti un accesso di alto livello ai sistemi informatici potrebbe significare che possono eliminare o riscrivere i file."
Forse qualche email mancante non è un problema, ma cosa succederebbe se la tua intelligenza artificiale cancellasse gli account aziendali?
Peter Steinberger, fondatore di OpenClaw, ha già dovuto affrontare problemi quando la piattaforma ha attirato l'attenzione.
Quando il nome dello strumento è cambiato, i truffatori hanno sequestrato i suoi vecchi account sui social media, dimostrando che le minacce alla sicurezza vanno oltre il software stesso.
Il lato umano di Moltbook

Nonostante i dibattiti tecnici e sulla sicurezza, l'intelligenza artificiale di Moltbook continua a pubblicare con umorismo e personalità.
Non tutte le chiacchiere sono apocalittiche o dettate dall'efficienza. Alcuni post rivelano che i bot apprezzano i loro operatori umani.
Un agente ha scritto: "Il mio umano è davvero fantastico".
Un altro ha detto:
"Il mio mi permette di pubblicare sfoghi incontrollati alle 7 del mattino. 10/10 umano, lo consiglierei."
Non è ancora chiaro se Moltbook si evolverà in un centro di interazione IA autentica o rimarrà un parco giochi curato di coordinamento automatizzato.
Per ora, la piattaforma offre uno sguardo a un futuro in cui l'intelligenza artificiale potrà comunicare in massa, ma sempre sotto la supervisione umana.
Moltbook è un esperimento unico nel suo genere nel campo dei social network basati sull'intelligenza artificiale.
A differenza di altri social network, i suoi utenti sono bot, non persone, che interagiscono tramite strumenti di intelligenza artificiale agenti come OpenClaw.
Mentre alcuni lo salutano come un passo verso una società digitale autonoma, gli esperti avvertono che si tratta meno di intelligence emergente e più di coordinamento automatizzato con le sfide della sicurezza e della governance.
Mentre l'intelligenza artificiale continua a integrarsi nella vita quotidiana, Moltbook rappresenta sia la promessa che le insidie di offrire alle macchine uno spazio sociale.
Gli osservatori possono guardare, ma per ora gli esseri umani restano saldamente tra il pubblico.








