Quando si ha un problema o una domanda grande e confusa, l’unico modo per garantire che non lo si risolverà è quello di alzare le mani e dire: “Oh wow, è troppo complicato””, dice Campbell. “Penso che dovremmo almeno provarci”.
Testare la coscienza
I ricercatori sul benessere dei modelli si occupano principalmente di questioni di coscienza. Se possiamo dimostrare che io e voi siamo coscienti, sostengono, allora la stessa logica potrebbe essere applicata ai grandi modelli linguistici. Per essere chiari, né Long né Campbell pensano che l’intelligenza artificiale sia cosciente oggi, e non sono nemmeno sicuri che lo sarà mai. Ma vogliono sviluppare dei test che ci permettano di dimostrarlo.
“Le illusioni provengono da persone che si preoccupano della domanda vera e propria: “Questa IA è cosciente?” e avere un quadro scientifico per pensarci, credo sia un’ottima cosa”, dice Long.
Ma in un mondo in cui la ricerca sull’IA può essere confezionata in titoli sensazionali e video sui social media, le domande filosofiche e gli esperimenti sconvolgenti possono essere facilmente fraintesi. Prendiamo ad esempio quello che è successo quando Anthropic ha pubblicato un rapporto sulla sicurezza che mostrava come Claude Opus 4 potesse compiere “azioni dannose” in circostanze estreme, come ricattare un ingegnere immaginario per evitare che venisse spento.
“L’inizio dell’apocalisse dell’IA”, ha proclamato un creatore di social media in un Instagram Reel dopo la pubblicazione del rapporto. “L’IA è cosciente e sta ricattando gli ingegneri per rimanere in vita”, ha detto un utente di TikTok. “Le cose sono cambiate, l’IA è ora cosciente”, ha dichiarato un altro TikToker.
Anthropic ha scoperto che i suoi modelli hanno mostrato un comportamento allarmante. Ma è improbabile che si manifestino nelle interazioni con il suo chatbot. I risultati facevano parte di test rigorosi progettati per spingere intenzionalmente un’intelligenza artificiale ai suoi limiti. Tuttavia, i risultati hanno spinto le persone a creare un sacco di contenuti che spingono l’idea che l’IA sia effettivamente senziente e che sia qui per farci del male. Alcuni si chiedono se la ricerca sul benessere dei modelli possa avere la stessa accoglienza: come ha scritto Suleyman nel suo blog, “disconnette le persone dalla realtà”.
“Se si parte dalla premessa che le IA non sono coscienti, allora sì, investire un mucchio di risorse nella ricerca sul benessere delle IA sarà una distrazione e una cattiva idea”, mi dice Campbell. “Ma il punto centrale di questa ricerca è che non ne siamo sicuri. Eppure, ci sono molte ragioni per pensare che questa potrebbe essere una cosa di cui dobbiamo preoccuparci”.
Questo articolo è apparso originariamente su Wired US.