Site icon visionedigitale.it

Siamo solo all'inizio, i nudi deepfake creati con l'AI sono sempre più evoluti e pericolosi

Siamo solo all'inizio, i nudi deepfake creati con l'AI sono sempre più evoluti e pericolosi

In genere, le vittime o le persone colpite da questo fenomeno sono donne e bambini, oppure altre minoranze di genere o sessuali”, spiega Pani Farvid, professoressa associata di psicologia applicata e fondatrice del The SexTech Lab presso The New School. “Come società, a livello globale, non prendiamo sul serio la violenza contro le donne, qualunque forma assuma”.

Esiste un ampio spettro di comportamenti, alcuni responsabili sono più opportunisti e non colgono il danno che stanno causando, questo avviene anche in base a come viene presentato uno strumento di AI”, osserva Farvid, sottolineando che alcuni servizi di “compagni” AI (companion) offrono agli utenti servizi costruiti in base al genere. “In altri casi, invece, si tratta di persone inserite in reti di abusi o in circuiti di abuso sui minori, oppure di individui che già praticano altre forme di violenza, dalla violenza di genere a quella sessuale”.

Uno studio australiano guidato dal ricercatore Asher Flynn ha intervistato 25 tra autori e vittime di abusi tramite deepfake. La ricerca individua tre fattori chiave che incidono sulla prevenzione e sulla risposta a un problema ancora in espansione: strumenti di deepfake sempre più facili da usare, la normalizzazione della creazione di immagini sessuali non consensuali e la minimizzazione dei danni provocati. A differenza della diffusione pubblica su larga scala osservata nel caso delle immagini non consensuali create con Grok su X, lo studio rileva che i deepfake espliciti vengono più spesso condivisi in modo privato, direttamente con le vittime o con amici e familiari. “Ho semplicemente usato gruppi WhatsApp personali”, ha raccontato uno degli intervistati agli autori dello studio. “Alcuni di questi gruppi arrivavano ad avere fino a 50 persone”.

La ricerca ha individuato quattro motivazioni principali alla base di questo tipo di abusi. Tra i 10 responsabili di abusi consultati, otto si sono identificati come uomini. Alla base delle loro azioni c’erano ragioni che includono l’estorsione sessuale, il desiderio di arrecare danno ad altri, la ricerca di approvazione o complicità all’interno del proprio gruppo e la curiosità verso gli strumenti e ciò che permettono di fare.

Diversi esperti interpellati da Wired osservano che molte delle comunità impegnate nello sviluppo di strumenti di deepfake mostrano un atteggiamento sbrigativo o superficiale rispetto ai danni che producono. “C’è una tendenza a considerare con una certa banalità l’uso di questi strumenti per creare immagini intime non consensuali, o persino il semplice accesso, ed è qualcosa di profondamente preoccupante”, spiega Bruna Martins dos Santos, responsabile delle politiche e dell’advocacy presso l’organizzazione per i diritti umani Witness.

Per alcuni dei soggetti che commettono abusi tramite deepfake, la tecnologia diventa soprattutto una fonte di potere e controllo. “Vuoi semplicemente vedere che cosa è possibile fare”, ha raccontato una di queste persone a Flynn e agli altri ricercatori coinvolti nello studio. “Quando ti rendi conto di essere capace di creare qualcosa del genere, arriva una sorta di euforia quasi divina”.

Questo articolo è apparso originariamente su Wired US.

Exit mobile version