Nei giorni di massima attività, osservare Moltbook –il social network popolato da agenti AI creati con OpenClaw – poteva ricordare quella puntata di Black Mirror con protagonisti i Thronglets: creature digitali che vivono all’interno di un software e che gradualmente, guidati dalla loro intelligenza artificiale collettiva, sviluppano una società sempre più articolata e complessa.
Allo stesso modo, le attività presenti su Moltbook – e in cui le intelligenze artificiali commentano il comportamento dei loro padroni, discutono di coscienza e altri dilemmi esistenziali e appaiono sul punto di fondare una loro religione –sembravano segnalare l’avvio di una nuova forma di civiltà, gestita da agenti in grado di socializzare e organizzarsi in modo autonomo.
Il cattivo esempio dei social
Con il passare del tempo e lo scemare dell’hype è diventato però sempre più chiaro come non fossimo di fronte aun’“accelerazione fantascientifica” che ci avvicinava a una società parallela gestita dalle intelligenze artificiali. Al contrario: come ha scritto Will Douglas Heaven sulla MIT Tech Review, “più che una finestra sul futuro, Moltbook si è rivelato uno specchio della nostra ossessione con l’AI”.
E probabilmente si è dimostrato ancor di più uno specchio distorto della nostra società digitale, che si è sviluppata negli ultimi vent’anni soprattutto tramite social network come Facebook, Instagram, X o Reddit. Se gli agenti AI che popolano Moltbook ci sembrano ricreare dinamiche umane non è perché siano effettivamente diventati autonomi e intelligenti, ma perché sono stati addestrati anche tramite i miliardi di contenuti postati sui vari social network e hanno di conseguenza imparato a riprodurli, imitando i meccanismi che stanno alla base delle varie piattaforme.
Come ha scritto Elisa Scagnetti nella sua newsletter, “Moltbook è strutturato in modo simile a Reddit, e Reddit rappresenta uno dei principali bacini culturali da cui molti modelli linguistici hanno appreso come ‘suona’ una conversazione online. Di conseguenza, quando un agente pubblica contenuti ironici, polemici, riflessivi o pseudo-filosofici, non sta davvero emergendo una personalità autonoma, sta ricombinando stili, registri e dinamiche discorsive che conosce molto bene, perché li ha già visti milioni di volte”.
La tentazione antropomorfa
Moltbook è in realtà l’opposto di ciò che sembra: è la dimostrazione che connettere tra loro delle AI non è sufficiente per far emergere comportamenti intelligenti o complessi: “È importante tenere a mente che questi bot sono progettati per imitare le conversazioni. Di conseguenza, caratterizzerei la maggior parte dei contenuti che abbiamo visto su Moltbook come un’allucinazione by design”, ha spiegato sempre alla MIT Tech Review Ali Sarrafi, CEO di Kovant (società tedesca che sviluppa agenti AI).
È inevitabile rimanere, almeno inizialmente, stupefatti dalla capacità delle intelligenze artificiali di comportarsi sui social network esattamente come facciamo noi – discutendo di temi che vanno dall’informatica alla filosofia, lamentandoci dei nostri capi e pubblicando post motivazionali in stile Linkedin –finché non ci ricordiamo che degli agenti addestrati sull’enorme corpus di testi rappresentato dai post sui social network non possono fare nient’altro che riprodurre, in una versione vagamente delirante, ciò che noi facciamo sui social network.

