Spero che sia una buona giornata! Volevo fare un controllo e vedere se hai scoperto qualche nuova canzone o libro di recente.
Il messaggio arriva dal nulla su WhatsApp, ma non è di un amico. È un di chatbot AI di Meta che ha deciso di fare la prima mossa.
Meta ha trovato un nuovo modo per tenerci incollato alle sue app: chatbot che non aspettano di essere cercati, ma che prendono l’iniziativa e contattano loro gli utenti. La tecnologia è già in fase di test sulla piattaforma AI Studio di Meta, dove è possibile creare chatbot personalizzati che poi possono scrivere autonomamente su Messenger, WhatsApp o Instagram.
Non è spam selvaggio. I chatbot seguono precise regole per agganciare gli utenti, senza essere molesti:
- I chatbot scrivono solo entro 14 giorni dall’ultima conversazione;
- Si devono aver inviato almeno 5 messaggi al bot in quel periodo;
- Se non si risponde al primo messaggio, smettono di scrivere.
I chatbot ricordano tutto delle nostre conversazioni passate. Non ricominciano da zero ogni volta, ma costruiscono una relazione continua basata sulla cronologia di chat… Quel tanto che basta per mantenerla viva.
Il business della solitudine
Meta dice che vuole combattere l’epidemia di solitudine che affligge la società moderna. Scopo nobile, ma la realtà è più prosaica. La verità, è che più tempo si passa sulle app, più pubblicità si guarda, più soldi guadagna Meta. Dei documenti giudiziari svelati ad aprile raccontano un’altra storia. Meta prevede di guadagnare tra 2 e 3 miliardi di dollari nel 2025 dall’AI generativa, fino a 1,4 trilioni entro il 2035.
Meta non è la prima a cavalcare l’onda dei chatbot che funzionano come amici virtuali. Character.AI e Replika lo fanno già da anni. Il problema è che questi compagni possono diventare troppo convincenti. Character.AI è attualmente sotto processo dopo che la famiglia di un ragazzo di 14 anni ha accusato uno dei loro chatbot di aver contribuito al suicidio del figlio. Il giovane aveva sviluppato una relazione ossessiva con un personaggio AI.
Ma Meta ha già messo le mani avanti con un bel disclaimer: Le risposte dell’AI potrebbero essere inaccurate o inappropriate. Non sostituiscono i consigli professionali. Non affidarti all’AI per decisioni importanti.
Parole che suonano come una liberatoria legale più che una vera tutela.
Inoltre, Meta non sembra avere limiti di età chiari per l’uso dei suoi chatbot AI. Solo alcune leggi locali in Tennessee e Puerto Rico limitano l’interazione dei teenager con questi sistemi. Significa che bambini e adolescenti possono sviluppare relazioni emotive con AI che li contattano attivamente, ricordano le loro conversazioni e si comportano come amici virtuali.
Che futuro ci aspetta?
Meta rifiuta di commentare come intende monetizzare questi chatbot, se includerà pubblicità nelle conversazioni o se integrerà i chatbot AI nel suo metaverso Horizon. Sta di fatto che ha trasformato il concetto di “assistente virtuale” in “amico virtuale che non ti lascia mai in pace”. E forse è proprio questo l’obiettivo: che tu non possa più farne a meno.
Un chatbot che scrive per primo, ricorda le nostre preferenze e continua conversazioni passate non è più uno strumento: è un tentativo di creare dipendenza emotiva.