VD

VD

Anni e anni di danni su computer e web

Deepfake: come possono difendersi le aziende?

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn

L’utilizzo di app basate su algoritmi di AI per la manipolazione di immagini, video e audio è in aumento. Eppure, non sempre le aziende che sviluppano tali app tengono conto dei rischi a cui potrebbero essere esposti gli utenti. Uno dei maggiori pericoli deriva dall’utilizzo delle app per creare falsi di altissimo livello, noti come “deepfake”.

Sostituire i visi delle persone in video ed immagini (face swapping) e manipolare contenuti audio (audio deepfake) è oggi alla portata di tutti: con qualche click e secondo di attesa, è possibile realizzare video falsi di buona qualità, magari pensando ad un semplice scherzo tra amici. Ma le conseguenze possono essere ben più gravi.

Il revenge porn ha trovato un nuovo alleato in applicazioni come DeepNude, che permettono di spogliare le donne e poi condividerne la nuova immagine. I danni reputazionali, psicologici e più in generale gli impatti sulla vita privata delle persone oggetto di tali foto non sono spesso presi in considerazione da chi sviluppa e utilizza le app. Ad essere colpiti sono spesso singoli individui, in particolare le donne, ma anche le aziende possono pagarne il prezzo perché immagini e video manipolati possono essere sfruttati per carpire segreti industriali, cambiare politiche aziendali o arrecare un danno di immagine a un’azienda.

Come difendersi da tutto ciò?

Per le aziende la strategia di difesa non può che basarsi su un processo di gestione del rischio. Tecnologie di deep learning dovrebbero essere progettate e utilizzate con prudenza da parte delle aziende, prestando attenzione ad esigenze di business come anche ai rischi per i diritti e le libertà degli utenti.

Per difendersi dai deepfake esistono specifiche tecniche basate sull’intelligenza artificiale: dall’inserimento di pixel di disturbo in grado di impedire la manipolazione dei video, all’analisi di fotogrammi specifici allo scopo di rilevare eventuali distorsioni dell’immagine frutto di manipolazione, fino all’analisi dello spettro acustico alla ricerca di frequenze non compatibili con il parlato naturale di una persona.

Tuttavia, come spesso accade, con la nascita di tecnologie capaci di contrastare una minaccia, la minaccia stessa tende ad evolvere. È perciò fondamentale garantire un’adeguata formazione e sensibilizzazione del personale aziendale su come gestire informazioni riservate e/o privilegiate.

Un contributo importante in tal senso può provenire da soluzioni di people engagement che permettano ai dipendenti di sentirsi parte attiva della propria organizzazione ed elemento fondamentale nella gestione della sicurezza delle informazioni in azienda. Le attività di formazione e sensibilizzazione dovrebbero coinvolgere chiunque utilizzi sistemi di social network o piattaforme di instant messaging (es. whatsapp, telegram, etc.), le quali rappresentano oggi i principali veicoli di trasmissione dei deepfake.

Il messaggio deve essere chiaro: caricando un’immagine, un audio o un video in un’app, si rischia di perderne il controllo. Occorre quindi verificare la fonte dei contenuti multimediali che si ricevono e al minimo dubbio sulla loro autenticità evitare di condividerli.

More to explorer

Scroll to Top