Fakeyou preoccupa il Garante. FakeYou, l’applicazione della società The Storyteller Company in grado di riprodurre la voce di personaggi famosi partendo da un testo scritto, finisce sotto la lente del Garante Privacy. Le preoccupazioni dell’autorità si basano sui potenziali rischi che potrebbero determinarsi da un uso improprio di un dato personale come la voce.

Scherzi pericolosi

L’app è di quelle spesso catalogate sotto la voce “divertenti”. Infondo cosa può succedere di grave se per fare uno scherzo ad un amico, gli mando un vocale con la voce di Gerry Scotti? Proviamo però ad immaginare l’utilizzo del mezzo in un contesto meno goliardico. Cosa potrebbe succedere se – e non con intento scherzoso – utilizzando la voce di un’alta personalità politica qualcuno riuscisse ad ottenere informazioni riservate dalla segreteria di un Ministero?

La voce è un dato personale

Lapalissiano. Ma è giusto ricordarlo in questo contesto, considerando che proprio da applicazioni apparentemente “leggere” possono derivare problematiche molto pesanti. L’app in questione, oltretutto, per allargare il suo mercato offre 150 dollari a chi vuole creare una nuova voce. Inutile dire che è sconsigliabile inserire la propria all’interno del database anche se, lo ripetiamo, può sembrare un gioco senza alcun pericolo nascosto.

Cosa chiede il Garante

Il Garante, per vederci chiaro, ha chiesto alla società i dettagli dell’applicazione. In particolare la società dovrà fornire le modalità di “costruzione” della voce dei personaggi famosi, il tipo di dati personali trattati, nonché le finalità del trattamento dei dati riferiti ai personaggi noti e agli utenti che utilizzano l’app. La società, inoltre, dovrà indicare l’ubicazione dei data center che archiviano i dati personali, sia con riferimento agli utenti registrati dall’Italia, sia ai personaggi conosciuti, e le misure tecniche ed organizzative adottate per garantire un livello di sicurezza adeguato al rischio.

Il portale nasce nel 2002

La creazione del dominio FakeYou.com è datata 2002 e l’ultimo aggiornamento risale al 2021. In realtà in questi vent’anni di “vita” FakeYou ha avuto un traffico praticamente irrilevante ma, grazie ad alcuni video divenuti virali su Twitter e Tik Tok, ha incrementato esponenzialmente i visitatori – e gli utilizzatori – tornando alla ribalta.

Il deepfake

Del deepfake ne abbiamo già parlato in questo articolo. Cos’è il deepfake? I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale (AI) che, partendo da contenuti reali – immagini e audio – , riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce. È quindi il caso di FakeYou, ma anche il caso di Google che già da tempo è in grado, tramite la sua AI di svolgere lo stesso compito. La differenza tra Google e FakeYou risiede nel pubblico al quale si rivolge il servizio. Google lo offre a condizioni molto strette e con motivazioni “serie”, FakeYou si rivolge ad un target molto ampio, circostanza che, come detto, espone a molti rischi l’utente. Chiudendo, di per sè l’applicazione della AI per lo scopo di FakeYou è lecito, ma è importante monitorarne l’utilizzo e la gestione. Così come sta facendo, giustamente, il Garante.

Vero e Falso

Il web è in velocissima evoluzione, una crescita che ci ha portato nei Metaversi e chissà dove ci condurrà in futuro. Nonostante l’evoluzione del mezzo, un problema resta – e molto probabilmente diverrà sempre più difficile da gestire – ed è la frequente difficoltà dell’utente nel distinguere ciò che è vero da ciò che è falso. Immagini manipolate, notizie false e informazioni inventate sono, purtroppo, pane quotidiano della rete. Tutti fenomeni che con l’avvento della AI e dei deepfake possono esasperare il quadro. Andiamo oltre, fantasticando – ma nemmeno troppo – su un futuro in cui il progetto di un “Metaverso unico” rappresenti di fatto un “secondo mondo” abitato da nostri avatar creati a nostra immagine e somiglianza – compresa la voce – che danni potrebbe provocare un deepfake “fatto ad arte”? Risposta scontata. Per questo motivo riteniamo l’allert del Garante un segnale importante nell’ottica di una maggior vigilanza riguardo a questo fenomeno. Anche e soprattutto per il futuro.

Jaera team

Jaera team

Jaera S.r.l. si occupa di consulenza aziendale in ottica compliance e di nomina di specifiche funzioni aziendali, di consulenza in informatica e formazione.