Nel caso in cui l’algoritmo rilevi un comportamento sospetto, invia una notifica in tempo reale agli addetti alla sicurezza del negozio, che possono visualizzare immediatamente la registrazione del video incriminato e, di conseguenza, intervenire.
Il sistema di AI è in grado di rilevare una serie di gesti – per esempio l’introduzione di un prodotto in tasca, in una borsa o in uno zaino – che l’utente può però personalizzare. Nel caso in cui in un supermercato sia permesso utilizzare il personal shopper per raccogliere i prodotti, per esempio, questo comportamento può essere escluso dall’elenco dei comportamenti considerati sospetti.
Da un punto di vista tecnico, il sistema si interfaccia con la rete di videocamere già esistente e integra una serie di accorgimenti, come la conservazione limitata nel tempo delle immagini registrate, che corrispondono ai requisiti normativi europei in tema di privacy.
Il rischio di falsi positivi
Se il rispetto della privacy è garantito, rimangono tutti i problemi legati a un sistema legato all’intelligenza artificiale. Anche se il sistema evolve costantemente anche grazie all’utilizzo che ne viene fatto (il software di Veesion è utilizzato da molti negozi e in numerosi paesi, Stati Uniti compresi) il rischio di un “falso positivo” è sempre presente.
Proviamo a immaginare il caso in cui qualcuno appoggi, per qualsiasi motivo, un oggetto di sua proprietà su uno scaffale per qualche secondo e poi lo rimetta in tasca. Una situazione del genere potrebbe, oggettivamente, “ingannare” l’AI e far scattare un allarme.
Allo stesso modo è possibile che un cliente non consideri l’eventualità che un comportamento istintivo (per esempio infilare in tasca un prodotto semplicemente perché si hanno le mani occupate) possa far scattare l’allarme anche quando non c’è nessuna intenzione di commettere un furto.
In tutti questi casi il problema, però, non è però di carattere tecnologico. Sta agli esercenti fare in modo che ipotesi del genere non rappresentino un problema o, addirittura, portino al verificarsi di situazioni spiacevoli.
Le policy di Veesion prevedono, per i negozi che utilizzano il sistema di AI, il suggerimento di affiggere avvisi che spieghino chiaramente che viene utilizzato un sistema di rilevamento automatico basato su intelligenza artificiale.
Le applicazioni future
Ma possiamo aspettarci che questa tecnologia sbarchi anche in altri settori? Stefano Toscano, direttore vendite dell’azienda, non ha dubbi. “Stiamo valutando l’applicazione della nostra tecnologia anche per altri ambiti. D’altra parte, il fatto che l’algoritmo rilevi solo i gesti e non analizzi in alcun modo i dati biometrici permette di immaginare molti utilizzi mantenendo un elevato livello di privacy e di rispetto delle normative”.
Veesion ha appena annunciato la conclusione di una raccolta di investimenti per 38 milioni di euro, parte dei quali saranno destinati a ricerca e sviluppo per potenziare il sistema e arrivare a operare in nuovi contesti come “magazzini, ospedali, asili, case di riposo e cantieri”.
Il sistema sviluppato dall’azienda francese, quando applicato al rilevamento di possibili furti all’interno di negozi e supermercati, offre una serie di garanzie che rendono l’uso dell’AI proporzionato agli obiettivi e rispettoso di tutte le normative europee in merito.
In altri ambienti, ognuno con le proprie specificità etiche e legali, le cose però rischiano di essere molto più complicate, anche al di là delle regole. Far digerire a tutti i soggetti interessati la presenza di un Grande fratello sotto forma di algoritmo, probabilmente, sarà la parte più difficile.