Child Sexual Abuse Material (CSAM) è il nuovo acronimo che da circa un mese sta impazzando nel web, avevamo annunciato questo articolo pochi giorni fa. Si rifà a una nuova metodologia di analisi del contenuto di iCloud Foto proposta da Apple per evitare che i pedofili possano usare il servizio in cloud come archivio fotografico per immagini pedopornografiche.

Di per sé l’acronimo non coincide con alcuna tecnologia, ma viene usato per individuare il materiale pedopornografico. Si rifà a un approccio definito Client Side Scanning che sta a indicare la possibilità di eseguire un’analisi del tipo di foto che un client sta per passare o ha appena passato  – qui si pongono dei problemi tecnici – a un altro client.

Sfatiamo immediatamente un mito

L’approccio CSS per la ricerca di materiale CSAM va a vedere le foto presenti sul nostro client? No. Qui dobbiamo essere chiari e netti, la foto in sé non viene vista da nessuno, tuttavia ne viene creato un hash code. Che roba è? Un hash è un valore alfanumerico (di lunghezza variabile) che costituisce una sorta di impronta digitale del file e come tale è unico. Esistono differenti funzioni e modalità per calcolare l’hash di un file tanto per citare le due funzioni di hash più note MD5 e SHA. Ad esempio, l’hash MD5 della foto posta in alto in questo articolo è

326d148e52ef4d97bcfa297b69d2fd49

mentre la SHA256

36748fa517c98ec07201f5b3b3a92e66ccab19b1edcaeba4eafffd1171d68c28

Da questi codici non si può risalire alla foto a meno che non abbiamo un database che in qualche modo possa unire i due aspetti.

Ma quindi Apple come fa a capire cosa metto online?

Domanda legittima. La risposta che offriremo in questa sede non sarà farcita di tecnicismi. Il concetto è molto semplice: esistono dei database pubblici di hash di materiale CSAM in possesso dei corpi di polizia. Apple andrà a eseguire uno scanning comparativo degli hash code.

Supponiamo che la mia foto quella qui sopra con hash 36748fa517c98ec07201f5b3b3a92e66ccab19b1edcaeba4eafffd1171d68c28 stia per essere caricata su Foto di iCloud (notate bene parliamo solo del servizio in cloud NON dei cellulari). Apple prenderà l’hash e andrà a compararlo con gli hash noti nei database di materiale CSAM. Ma vediamo cosa afferma Apple stessa nelle FAQ su Expanded Protection for Children:

Invece di immagini reali, Apple utilizza hash illeggibili che vengono memorizzati sul dispositivo. Questi hash sono stringhe di numeri che rappresentano le immagini CSAM conosciute, ma non è possibile leggere o convertire tali hash nelle immagini CSAM su cui si basano. Questo insieme di hash di immagini è basato su immagini acquisite e convalidate per essere CSAM da almeno due organizzazioni per la sicurezza dei bambini. Utilizzando nuove applicazioni di crittografia, Apple è in grado di utilizzare questi hash per conoscere solo gli account iCloud Photos che memorizzano raccolte di foto che corrispondono a queste immagini CSAM noti, ed è quindi solo in grado di conoscere le foto che sono noti CSAM, senza conoscere o vedere altre foto.

Le foto di mio figlio al mare!!!

Molti si stanno già stracciando le vesti dicendo che vedremo frotte di genitori arrestati per aver fotografato i loro piccini mentre facevano il bagnetto. Niente di più sbagliato. Solo il materiale CSAM viene intercettato. Quindi, a meno che la foto di vostro figlio non sia diventata materiale CSAM, nessun genitore dovrà rendere conto di alcunché. Anche perché le foto CSAM sono appunto immagini di abusi sessuali e pertanto una foto nuda di un bambino mentre fa il bagno non potrà mai essere materiale CSAM.

Ma solo Apple?

Assolutamente no! Ma come sempre Apple fa più notizia e quindi si vede solo quel che fa apple. Facciamo presente che altri colossi del web come Google sono attivi nell’identificazione del materiale pedopornografico. Come? Ecco diamo uno sguardo fuori dall’orticello della Mela.

I team Google lavorano giorno e notte per identificare, rimuovere e segnalare questi contenuti ricorrendo a una combinazione di strumenti di rilevamento automatico leader del settore e revisori qualificati specializzati. Riceviamo segnalazioni anche da terze parti e dai nostri utenti, che completano il nostro costante lavoro.

Le foto vengono segnalate, come per Apple, al National Center for Missing and Exploited Children (NCMEC) e le segnalazioni effettuate sono più di quattrocentomila! Ma qui nessuno s’è mai alzato a dire mezza parola. Eppure i numeri di Google qui sono notevoli, stanno creando un loro database CSAM, hanno segnalato al NCMEC più di TRE MILIONI di immagini sospette, hanno chiuso centoventimila account. Questi sono numeri. E utilizzano lo stesso approccio di Apple. Dove sono qui le associazioni che oggi hanno scoperto la parola privacy?

Anche Amazon si sta muovendo (seppure con ritardo e dopo essere stata accusata di non aver fatto molto in merito, qualcuno che protesta lo troviamo sempre!) con un accordo con Thorn un’associazione specializzata nella salvaguardia dell’infanzia e che usa, toh guarda il caso, un meccanismo d’identificazione delle immagini CSAM.

Ma allora ci sono rischi o no?

Come in ogni cosa esiste sempre un rovescio della medaglia. Esiste la possibilità di falsi positivi. Apple al momento li valuta nella misura di 1 su un milione di miliardi nel suo documento CSAM Detection – Technical Summary. Direi bassina come probabilità. Ma i problemi che possono insorgere sono di altro genere.

Problemi di implementazione

Dove lo implementiamo questo sistema? Al momento le big si stanno proteggendo applicando questo sistema solo ai loro servizi in Cloud per non essere accusate di favorire indirettamente la pedofilia e il commercio di materiale CSAM. Ma ad esempio tutte le applicazioni di messaggistica non implementano questi sistemi, e quasi tutte sono dotate di crittografia E2E che impedisce a chiunque di vedere il contenuto dei messaggi che potrebbe essere anche zeppo di materiale CSAM. Al momento questi controlli non sono obbligatori, se lo diventassero avrebbero un forte impatto e ricaduta su aspetti legati al GDPR? È un tema ampio.

Problemi di controllo

È il solito dilemma di chi controlla il controllore, di chi stabilisce i parametri per cui un immagine o un video diventano materiale CSAM? Anche su questo fronte molto è il lavoro da impostare e portare avanti. Qui, proprio su questo punto specie in contesti non democratici sorgono non pochi dubbi su una serie di domande:

  • le big sapranno dire di no a controlli più pervasivi da parte di nazioni come la Cina?
  • creeranno per questi paesi dittatoriali la possibilità di un maggiore controllo? Magari non a materiale CSAM?

Problemi di falsi negativi

Come posso fregare un database CSAM? Esiste un modo per generare dei falsi negativi? Sì. Guardate senza giri di parole vi faccio un esempio pratico:

Child Sexual Abuse MaterialQui abbiamo già detto che il codice hash SHA256 è 36748fa517c98ec07201f5b3b3a92e66ccab19b1edcaeba4eafffd1171d68c28, ma cosa accadrebbe se per esempio mettessi la foto in bianco e nero?

 

 

 

Succederebbe una cosa molto semplice che il suo hash sarebbe differente, per la precisione diventerebbe 725efe8d43138d4ff8d294e300723695d648ba96e307db4c6f292ecae46a8d53

 

 

Ed ecco che alle autorità si pone un enorme problema di controllo della stessa foto che può essere modificata una quantità di volte infinita generando hash sempre differenti.

Problemi di tipo tecnico

Va tenuto in considerazione che le operazioni effettuate direttamente sui client occupano tempo di calcolo e costituiscono potenzialmente un tallone d’Achille per l’implementazione efficace di questi sistemi specie laddove i cellulari o più in generale i dispositivi usati non fossero quell’ultima moda.

Problemi di integrità della base dati

Per fare in modo che i controlli siano effettivi i database degli hashcode dovranno essere assai diffusi il che implicherà il rischio di una loro potenziale corruzione per inserire o togliere hash code. Questo potrebbe essere critico primariamente in situazione di scarsa libertà. Esistono delle soluzioni? Sì, in questo senso una blockchain potrebbe costituire un metodo per controllare e verificare l’integrità del dato.

In conclusione

Lungi dallo stracciarsi le vesti accusando Apple di voler guardare le nostro foto, credo si debba essere molto contenti (seppur nella vigilanza). Questo genere di meccanismi non possiamo snobbarli in favore di una mal interpretata e inventata violazione della privacy che andrebbe solo a favore dei criminali che sfruttano i bambini. Serve coraggio e anche decisioni ad esso improntate per fermare il Child Sexual Abuse Material.

Jaera team

Jaera team

Jaera S.r.l. si occupa di consulenza aziendale in ottica compliance e di nomina di specifiche funzioni aziendali, di consulenza in informatica e formazione.