Il sistema CSAM di Apple è stato ingannato, ma l'azienda ha due salvaguardie

Aggiornamento: Apple ha menzionato una seconda ispezione del server e una società professionale di visione artificiale ha delineato una possibilità di ciò che potrebbe essere descritto in "Come potrebbe funzionare la seconda ispezione" di seguito.
Dopo che gli sviluppatori hanno decodificato parti di esso, la prima versione del sistema CSAM di Apple è stata effettivamente ingannata per contrassegnare un'immagine innocente.Tuttavia, Apple ha dichiarato di avere ulteriori garanzie per evitare che ciò accada nella vita reale.
L'ultimo sviluppo si è verificato dopo che l'algoritmo NeuralHash è stato pubblicato sul sito Web di sviluppatori open source GitHub, chiunque può sperimentarlo...
Tutti i sistemi CSAM funzionano importando un database di materiale noto per abusi sessuali su minori da organizzazioni come il National Center for Missing and Exploited Children (NCMEC).Il database viene fornito sotto forma di hash o impronte digitali da immagini.
Sebbene la maggior parte dei giganti della tecnologia esegua la scansione delle foto caricate nel cloud, Apple utilizza l'algoritmo NeuralHash sull'iPhone del cliente per generare un valore hash della foto archiviata, quindi lo confronta con la copia scaricata del valore hash CSAM.
Ieri, uno sviluppatore ha affermato di aver decodificato l'algoritmo di Apple e di aver rilasciato il codice a GitHub: questa affermazione è stata effettivamente confermata da Apple.
Entro poche ore dal rilascio di GitHib, i ricercatori hanno utilizzato con successo l'algoritmo per creare un falso positivo intenzionale: due immagini completamente diverse che hanno generato lo stesso valore hash.Questo si chiama collisione.
Per tali sistemi c'è sempre il rischio di collisioni, perché l'hash è ovviamente una rappresentazione molto semplificata dell'immagine, ma è sorprendente che qualcuno possa generare l'immagine così rapidamente.
La collisione deliberata qui è solo una prova di concetto.Gli sviluppatori non hanno accesso al database hash CSAM, che richiederebbe la creazione di falsi positivi nel sistema in tempo reale, ma dimostra che gli attacchi di collisione sono relativamente facili in linea di principio.
Apple ha effettivamente confermato che l'algoritmo è la base del proprio sistema, ma ha detto alla scheda madre che questa non è la versione finale.La società ha anche affermato di non aver mai avuto intenzione di mantenerlo riservato.
Apple ha detto a Motherboard in un'e-mail che la versione analizzata dall'utente su GitHub è una versione generica, non la versione finale utilizzata per il rilevamento CSAM di iCloud Photo.Apple ha affermato di aver anche rivelato l'algoritmo.
"L'algoritmo NeuralHash [...] fa parte del codice del sistema operativo firmato [e] i ricercatori di sicurezza possono verificare che il suo comportamento sia conforme alla descrizione", ha scritto un documento Apple.
La società ha proseguito affermando che ci sono altri due passaggi: eseguire un sistema di abbinamento secondario (segreto) sul proprio server e revisione manuale.
Apple ha anche affermato che dopo che gli utenti hanno superato la soglia di 30 corrispondenze, un secondo algoritmo non pubblico in esecuzione sui server Apple verificherà i risultati.
"Questo hash indipendente è stato scelto per rifiutare la possibilità che NeuralHash errato corrisponda al database CSAM crittografato sul dispositivo a causa dell'interferenza del contraddittorio di immagini non CSAM e superi la soglia di corrispondenza".
Brad Dwyer di Roboflow ha trovato un modo per distinguere facilmente tra le due immagini pubblicate come prova del concetto per un attacco di collisione.
Sono curioso di sapere come appaiono queste immagini in CLIP di un estrattore di funzionalità neurali simile ma diverso OpenAI.CLIP funziona in modo simile a NeuralHash;prende un'immagine e utilizza una rete neurale per generare una serie di vettori di funzionalità che mappano il contenuto dell'immagine.
Ma la rete di OpenAI è diversa.È un modello generale che può mappare tra immagini e testo.Ciò significa che possiamo usarlo per estrarre informazioni sull'immagine comprensibili dall'uomo.
Ho eseguito le due immagini di collisione sopra tramite CLIP per vedere se è stato anche ingannato.La risposta breve è: no.Ciò significa che Apple dovrebbe essere in grado di applicare una seconda rete di estrazione di funzionalità (come CLIP) alle immagini CSAM rilevate per determinare se sono reali o false.È molto più difficile generare immagini che ingannino due reti contemporaneamente.
Infine, come accennato in precedenza, le immagini vengono riviste manualmente per confermare che siano CSAM.
Un ricercatore di sicurezza ha affermato che l'unico vero rischio è che chiunque voglia infastidire Apple possa fornire falsi positivi ai revisori umani.
"Apple ha effettivamente progettato questo sistema, quindi la funzione hash non deve essere tenuta segreta, perché l'unica cosa che puoi fare con 'non CSAM come CSAM' è infastidire il team di risposta di Apple con alcune immagini spazzatura finché non implementano filtri per eliminare analisi Quei rifiuti in arrivo sono falsi positivi", ha detto a Motherboard in una chat online Nicholas Weaver, ricercatore senior presso l'Institute of International Computer Science dell'Università della California, Berkeley.
La privacy è una questione di crescente preoccupazione nel mondo di oggi.Segui tutte le segnalazioni relative a privacy, sicurezza, ecc. nelle nostre linee guida.
Ben Lovejoy è uno scrittore tecnico britannico ed editore dell'UE per 9to5Mac.È noto per le sue rubriche e articoli di diario, esplorando la sua esperienza con i prodotti Apple nel tempo per ottenere recensioni più complete.Scrive anche romanzi, ci sono due thriller tecnici, alcuni cortometraggi di fantascienza e una commedia romantica!


Tempo di pubblicazione: 20-agosto-2021