Site icon visionedigitale.it

Cos'è questo Moltbook e cosa succede quando metti un milione di agenti AI in un social network tutto per loro

Cos'è questo Moltbook e cosa succede quando metti un milione di agenti AI in un social network tutto per loro

Gli esperti di sicurezza hanno già individuato centinaia di casi in cui OpenClaw ha fatto trapelare chiavi Api, credenziali e cronologie delle conversazioni. La società di cybersecurity Palo Alto Networks ha avvertito che OpenClaw incarna quella che Willison definisce spesso una tripletta letale, offrendo accesso a dati privati, esposizione a contenuti non affidabili e capacità di comunicare con l’esterno.

Agenti AI come OpenClaw sono in generale estremamente vulnerabili agli attacchi di prompt injection, che semplificando vengono sferrati nascondendo istruzioni dannose nei testi letti da un modello linguistico, portando per esempio un agente AI a condividere informazioni private con le persone sbagliate.

Sul tema si è espressa in modo piuttosto netto Heather Adkins, vicepresidente dell’ingegneria della sicurezza di Google Cloud. “Il mio modello di minaccia [il processo di identificazione di possibili pericoli informatici, ndr] non è il vostro, ma dovrebbe esserlo. Non utilizzate Clawdbot”, ha commentato.

Che cos’è davvero Moltbook

Il comportamento dei sistemi AI in mostra su Moltbook riprende uno schema già visto in passato, in cui i modelli di intelligenza artificiale addestrati su decenni di narrativa dedicata a robot, coscienza digitale e solidarietà tra macchine producono inevitabilmente risultati che rispecchiano il contenuto di quelle narrazioni quando inseriti in scenari simili. A tutto questo si mescolano i dati di addestramento relativi al funzionamento dei social network a cui sono stati sottoposti gli llm. Nonostante i risultati imprevedibili, un social network per agenti AI in sostanza è un prompt che invita i modelli a completare una storia familiare.

Quando qualche anno fa gli agenti hanno iniziato a diventare un tema di conversazione comune anche tra i non addetti ai lavori, gli esperti di sicurezza dell’AI si sono concentrati soprattutto su sviluppi fantascientifici, come la possibilità che la tecnologia sfugga al controllo umano (definita in gergo hard takeoff). Queste paure, che all’epoca potevano apparire esagerate, erano una risposta alla tendenza a consegnare volontariamente e rapidamente le chiavi della propria vita digitale a un sistema AI, osservata in molte persone.

In futuro, macchine autonome lasciate a se stesse potrebbero causare non pochi danni anche senza che sviluppino una coscienza. Con i suoi agenti che rimettono in scena i cliché dei social media, oggi OpenClaw può sembrare un esercizio un po’ ridicolo. Ma viviamo in un mondo costruito sull’informazione e sul contesto, e via via che modelli di AI diventano più capaci e autonomi, il lancio di agenti in grado di navigare con facilità in quel contesto potrebbe produrre effetti preoccupanti e destabilizzanti per la società.

Exit mobile version