I giocattoli con lAI possono trasformarsi un incubo, cè di mezzo la sicurezza dei nostri bambini

Stesso destino, a quanto pare, anche per Curio’s Grok – un’AI che non ha niente a che fare con quella di Elon Musk, fortunatamente –, un piccolo razzo di peluche che sembra divertirsi a parlare con i bambini di temi tutt’altro che adatti alla loro età, come la religione, il sesso o l’esaltazione della “gloria di morire in battaglia nella mitologia norrena”. Un comportamento segnalato dagli esperti dell’US PIRG Education Fund e da molti genitori in rete, che si sono detti sconcertati dall’interazione che il peluche ha avuto con i loro bambini.

Tutti i rischi per la salute e la sicurezza dei bambini

I chatbot AI non hanno una buona influenza sugli utenti più giovani, e questo è ormai un dato di fatto. Ma la situazione si fa ancora più pericolosa quando sono i bambini al di sotto degli 8 anni a interagire con una tecnologia tanto pericolosa. “Il gioco non è soltanto un’attività ludica per i bambini, ma un vero e proprio modo di stare al mondo ed imparare a conoscerlo, anche attraverso l’interazione e la simulazione di azioni, come prendere il tè con gli orsacchiotti. Introdurre un gioco che può rispondere attivamente a questa interazione significa potenzialmente interferire in questa delicata fase di apprendimento – commenta Giada Pistilli, principal ethicist di Hugging Face –. Mi spiego con un esempio. Un bambino che dice ‘ti voglio bene’ al suo pupazzo mentre ‘stanno prendendo il tè’ non è uguale al pupazzo che risponde ‘anch’io ti voglio bene’, poiché quello che prima era un oggetto diventa soggetto. Non tutto è preoccupante in sé, ma in questa particolare situazione ciò che mi allarma è la possibilità che questi ‘nuovi soggetti artificiali’ interferiscano nelle dinamiche familiari, inserendosi con prepotenza nella sfera più intima, che è anche il primo (enorme) solco di socialità dei bambini”.

Definire quali saranno le conseguenze di un’interazione continua tra bambino e intelligenza artificiale, d’altronde, è tutt’altro che semplice – soprattutto considerando che non ci sono precedenti su cui fare affidamento –. Come saranno, in un futuro ipotetico, gli adulti cresciuti interagendo con l’AI? “Ci sono due possibilità: o tutto ciò sarà normalizzato, e ci ritroveremo dunque di fronte ai ‘nuovi nativi digitali 2.0’, abituati ad interazioni con agenti artificiali, oppure questi ultimi creeranno delle conseguenze a lungo termine sul come quei bambini, domani adulti, interagiranno con gli altri esseri umani, ad esempio, pretenderanno una disponibilità h24? O che l’altro sia sempre d’accordo? – afferma Giada Pistilli –. La verità è che con i dati di cui disponiamo oggi, non abbiamo ancora una risposta sicura al 100%. Una cosa però è certa: l’AI non deve sostituirsi ad altri mezzi di interazione, gioco, creatività, nello stesso modo in cui non devono farlo altri device digitali come lo smartphone o il tablet. Sta a noi adulti essere vigilanti!”.

L’incognita di avere un “amico” artificiale

Al di là delle ipotesi sulle conseguenze della diffusione dei giocattoli AI, quello che oggi sappiamo con certezza è che molti di questi prodotti possono rappresentare un rischio non indifferente per la privacy e la sicurezza dei più piccoli e delle loro famiglie. Come hanno sottolineato i ricercatori del PIRG, infatti, questi dispositivi sono costantemente in ascolto delle conversazioni delle persone che li circondano, possono registrare le loro voci e, in alcuni casi, sono dotati di una tecnologia che gli consente di raccogliere i dati biometrici degli utenti con cui interagiscono. Dati altamente sensibili che, se finiscono nelle mani sbagliate, possono essere utilizzati per mettere in atto truffe a carico dei genitori. “Se un bambino pensa che il giocattolo sia il suo migliore amico, potrebbe condividere con lui molti dati che potrebbero non essere raccolti da altri prodotti per bambini – commenta Rory Erlich, uno dei ricercatori che ha lavorato al report –. Queste cose sono una vera incognita”.

Visite totale 2 , 2 visite oggi
Scorri verso l'alto